Do 'juiz artesão' ao 'juiz robô': os riscos do uso da IA (Inteligência Artificial)

juiz artesao juiz robo riscos uso ia inteligencia artificial
Via @consultor_juridico | O próximo passo do Poder Judiciário é permitir a automação para resumir ações e fazer minutas de decisões, valendo-se das ferramentas tecnológicas, potencializadas pela inteligência artificial (IA) generativa. Para o ministro Luís Roberto Barroso, presidente do Supremo Tribunal Federal, esse parece ser o caminho judicial em direção à segurança jurídica, à isonomia e à eficiência.

A profecia foi lançada por ocasião da abertura do “6º Encontro Nacional sobre Precedentes Qualificados: Construção cooperativa do sistema de precedentes”, promovido entre 9 e 10 de setembro último, na sede do Tribunal Superior do Trabalho, em Brasília. O evento objetivava estimular, difundir e fortalecer a comunicação, a cooperação e a construção do sistema e da cultura de precedentes.

Antecipando-se às críticas, o ministro Barroso ponderou que o tema exige um olhar sem preconceitos, atento às inovações tecnológicas. “O juiz continua responsável pelo julgamento adequado da causa. Mas vai simplificar imensamente a vida se pudermos ter uma forma de produção de minutas com uso da inteligência artificial”, sentenciou. Estaríamos então fazendo a travessia do “juiz artesão” para o “juiz robô”.

A crença no uso da inteligência artificial para minutar decisões judiciais está sendo reforçada pelo surgimento de uma nova geração de modelos e ferramentas projetados por IA generativa. Capaz de criar novos conteúdos, como textos, imagens, vídeos ou músicas, esse tipo de IA usa variadas técnicas para identificar padrões e gerar novos resultados. Os modelos são treinados para gerarem textos de forma coerente e contextualizada com base nos dados fornecidos.

Identificando padrões de grandes conjuntos de dados, valendo-se de modelos de aprendizado de máquina (machine learning) e aprendizado profundo (deep learning), as novas ferramentas teconológicas teriam capacidade de gerar conteúdos novos e originais. Então, com acesso quase ilimitado à legislação, à jurisprudência, à doutrina, entre tantos outros repositórios de informações, as ferramentas estariam habilitadas a proporem minutas de decisões, a serem revisadas e assinadas pelos magistrados.

O entusiasmo com que segmentos do Poder Judiciário vêm defendendo e utilizando a IA generativa conduz à necessidade de refletir sobre os riscos e os limites do uso da inteligência artificial para minutar decisões judiciais, considerando a complexidade que envolve o ato de julgar, submetido a um conjunto de variáveis, tanto objetivas quanto subjetivas, determinadas por aspectos perceptivos, racionais e decisórios.

Regulamentação pelo CNJ

Investir em tecnologias e em soluções de inteligência artificial tem sido solução encontrada pelos sistemas judiciais de todo o mundo para responder ao crescimento exponencial de conflitos e ampliar as possibilidades de acesso à Justiça. No Brasil, o emprego de tecnologias digitais já ocorre há décadas, inclusive por meio da digitalização, da automação e da transformação das atividades judiciais. O uso da IA para minutar decisões é a nova fronteira almejada pelos tribunais.

As diversas iniciativas desenvolvidas e implementadas pelos tribunais são frutos da política judiciária sistematizada pelo Conselho Nacional de Justiça (CNJ), que instituiu o Processo Judicial Eletrônico (PJe), o Laboratório de Inovação do PJe e o Centro de Inteligência Artificial aplicada ao PJe.

As iniciativas objetivam criar soluções de apoio à atuação do Poder Judiciário, inclusive para melhorar os fluxos processuais, gerar mais rapidez e auxiliar os magistrados a decidir melhor. No Supremo Tribunal Federal já foram desenvolvidas variadas ferramentas baseadas em IA, a exemplo dos robôs Victor, RAFA 2030 e VitorIA. Úteis ao agrupamento de processos, nenhuma delas presta-se a elaborar minutas de decisões.

O Conselho Nacional de Justiça (CNJ), por meio da Resolução nº 332/2020, instituiu diretrizes para o uso da IA no Poder Judiciário, incluindo o desenvolvimento do projeto Sinapses, solução computacional para armazenar, testar, treinar, distribuir e auditar modelos de inteligência artificial. A resolução foi regulamentada pela Portaria CNJ nº 271/2020.

Conforme o artigo 2º da Resolução CNJ 332/2020, no âmbito do Poder Judiciário, a inteligência artificial “visa promover o bem-estar dos jurisdicionados e a prestação equitativa da jurisdição, bem como descobrir métodos e práticas que possibilitem a consecução desses objetivos”.

O caput e o parágrafo único do artigo 18 estabelecem que os usuários externos devem ser informados quanto à utilização de sistema inteligente, destacando inclusive o caráter não vinculante da proposta de solução apresentada pela inteligência artificial, a qual será sempre submetida à análise da autoridade competente.

O caput e o parágrafo único do artigo 19 da Resolução CNJ 332/2020 fixam que os sistemas computacionais que utilizem modelos de inteligência artificial como ferramenta auxiliar para a elaboração de decisão judicial observarão, como critério preponderante para definir a técnica utilizada, a explicação dos passos que conduziram ao resultado, devendo sempre permitir a supervisão do magistrado competente.

Riscos do uso da IA

Alguns tribunais já começam a desenvolver ferramentas tecnológicas para a elaboração de modelos de decisões automatizadas. Os padrões em construção até agora objetivam o auxílio à atividade judicial. Mas o movimento ganha tração, estimulado pelos órgãos de cúpula do Poder Judiciário. Com a iniciativa, esperam fazer a travessia do “juiz artesão” para o “juiz robô”, este mais dócil à aplicação acrítica de leis e precedentes.

A digitalização dos sistemas de justiça faz parte de um movimento global. Em muitos países avança a realização de procedimentos judiciais digitais, comunicação eletrônica para advogados e partes, transmissão eletrônica de documentos e realização de audiências e conferências on-line. Por trás desse movimento, está promessa de correção de problemas de morosidade, excesso de discricionariedade, insegurança jurídica e garantia de consistência, previsibilidade e redução de custos.

O uso da IA, todavia, traz variados riscos quando explorada para a antecipação de decisões judiciais. Os sistemas de justiça, no Brasil e em outros países, enfrentam problemas amplamente conhecidos. Mas a solução deles não pode se dá pela automatização das decisões judiciais, ainda que sujeitas à revisão humana. Os supostos benefícios não justificariam os riscos.

A lista de riscos é enorme: excessiva padronização das decisões, estímulo à aplicação acrítica do padrão, alheamento da realidade social, perenização da corrente majoritária, questionamento ao magistrado distanciado da padronização, o desequilíbrio no caso e a desumanização do Direito [1].

Além de tais riscos, há outras dimensões que precisam ser consideradas. Uma delas diz respeito às enormes complexidades que envolvem a ação de julgar. O professor Pérez Luño, em sua obra ¿Qué significa juzgar? [2], desenvolve três aspectos imprescindíveis: perceptivos, racionais e decisórios.

Primeiro, o ato de julgar implica uma ação de perceber por meio de expressões sensoriais, como a visual (inspeção), a auditiva (inquirição) e oral (julgamento). Segundo, envolve um processo discursivo, baseado na argumentação racional. Terceiro, compreende uma tomada de decisão com consequências jurídicas relevantes.

A tarefa de julgar, além desses aspectos, compreende a realização de quatro atividades fundamentais, que tornam inviável sua automação: selecionar o material jurídico relevante, interpretá-lo e aplicá-lo ao caso, determinar os fatos e provas e suas relações causais e qualificar juridicamente os fatos provados.

A complexidade amplia-se pela textura aberta da linguagem jurídica. Com isso, o significado da norma só é alcançado através do processo interpretativo, em que o texto é inserido no contexto, a partir das práticas sociais, princípios, valores, linguagem, dimensões culturais, éticas, sociais, emocionais.

Ademais, o magistrado, no ato de julgar, além de considerar diversos aspectos e desenvolver variadas atividades, explicita o seu raciocínio e os fundamentos da decisão. É inviável que todas essas dimensões estejam presentes no julgamento automatizado, sobretudo porque não se conhecerá o processo que conduziu o algoritmo ao resultado.

Improvável então que a IA seja capaz de adequadamente valorar a prova, qualificar os fatos, decidir qual a norma relevante para a resolução do litígio, julgar sua validade, interpretá-la, ponderar os princípios conflitantes no caso e valorar quais são os meios mais aptos para a realização dos fins do sistema jurídico [3].

Além dessas dificuldades, a decisão automatizada poderia conter outros graves problemas: falta de transparência (black box), insegurança cibernética, conflitos éticos, vieses dos algoritmos e violação de direitos fundamentais, inclusive das garantias processuais, que são, sabe-se, condições de legitimidade democrática da atuação judicial.

Em conclusão, a solução dos males que afligem o sistema de justiça não passa pela substituição do “juiz artesão” pelo “juiz robô”. Afinal, só um juiz humano pode ser capaz de desenvolver raciocínio jurídico baseado em expectativas, experiências, conhecimentos, métodos interpretativos, diretrizes hermenêuticas, parâmetros decisórios e fundamentação adequada. Só um juiz humano pode ser capaz de examinar as especificidades de um caso e argumentar validamente para promover direitos, justiça e dignidade.
_________________________________

[1] MARTÍN,  Nuria  Belloso.  Algoritmos predictivos  al  servicio  de  la  justicia:  ¿uma nueva   forma   de   minizar   el   riesgo   y   la incertitumbre?.  In:  NUNES,  Dierle;  LUCON, Paulo  Henrique  dos  Santos;  WOLKART,  Erick Navarro (orgs). Inteligência artificial e Direito Processual: os impactos da virada tecnológica no  Direito  Processual.  JusPodium:  Salvador, 2022, p. 541-543.

[2] LUÑO PÉREZ, Antonio Henrique. ¿Qué significa juzgar? DOXA, Cuadernos de Filosofia del Derecho, nº 323, 2009, PP. 151-176. LUÑO PÉREZ, Antonio Henrique. Acesso em 7/8/2022. Disponível em https://rua.ua.es/dspace/bitstream/10045/20369/1/DOXA_32_09.pdf

[3] MARTÍN, ob. cit., p. 550.
_________________________________

Arnaldo Boson Paes
é desembargador do Tribunal Regional do Trabalho da 22ª Região (Piauí), doutor em Direito do Trabalho pela PUC-SP, doutor em Direito das Relações Sociais pela Universidad de Castilla La Mancha (UCLM/Espanha) eprofessor da Uninassau (Teresina).
Fonte: @consultor_juridico

0/Comentários

Agradecemos pelo seu comentário!

Anterior Próxima