Este site usa cookies e tecnologias afins que nos ajudam a oferecer uma melhor experiência. Ao clicar no botão "Aceitar" ou continuar sua navegação você concorda com o uso de cookies.

Aceitar

Conversa Jurídica

A máquina e a balança: Uma análise da Resolução CNJ 615/2025

Henrique Araujo
Escrito por Henrique Araujo em junho 14, 2025
A máquina e a balança: Uma análise da Resolução CNJ 615/2025
Junte-se a mais de 15.000 pessoas

Entre para nossa lista e receba conteúdos exclusivos e com prioridade

A Resolução CNJ nº 615, publicada em março de 2025, representa algo mais profundo que uma simples regulamentação administrativa: é o reconhecimento oficial de que vivemos numa era em que máquinas podem — e devem — auxiliar na mais humana das atividades: julgar. Como magistralmente observou Kafka em “O Processo”, existe algo de profundamente perturbador quando não compreendemos os mecanismos que nos julgam. A diferença é que, ao contrário do tribunal kafkaesco que condenou Josef K “não apenas na inocência, mas também na ignorância”, esta resolução busca justamente o oposto: transparência, explicabilidade e supervisão humana.

A norma chega num momento em que o Judiciário brasileiro já acumula experiências notáveis com inteligência artificial. O sistema Victor, do STF, reduziu o tempo de análise de recursos extraordinários de 30 para 5 minutos. O Sócrates, do STJ, processa casos em 21 gabinetes ministeriais. Mas como disse Max Weber sobre a racionalização moderna, existe sempre o risco da “gaiola de ferro” burocrática — transformar a justiça num processo tão racionalizado que perca sua essência humana.

A anatomia de uma revolução regulamentada

A Resolução 615/2025 não surge no vácuo. Ela substitui a pioneira Resolução 332/2020, incorporando lições amargas de experiências internacionais. O caso COMPAS, nos Estados Unidos, tornou-se um símbolo das armadilhas da automação judicial: um algoritmo que previa reincidência criminosa com viés racial sistêmico, marcando réus negros como alto risco duas vezes mais que brancos, com precisão de apenas 20% para crimes violentos.

O CNJ aprendeu com estes erros alheios. A nova resolução estabelece um sistema sofisticado de classificação por riscos, dividindo aplicações entre alto risco (AR1 a AR5) e baixo risco (BR1 a BR8). Sistemas de alto risco — aqueles que podem “impactar diretamente decisões judiciais” — ficam sujeitos a rigorosos controles: avaliação de impacto algorítmico, auditorias regulares, supervisão humana obrigatória. É uma abordagem que ecoa a máxima aristotélica de que “separado da lei e da justiça, o homem é o pior dos animais” — mas reconhece que, com as devidas salvaguardas, a tecnologia pode torná-lo melhor.

O dilema da explicabilidade

Um dos aspectos mais fascinantes da resolução é sua obsessão com a explicabilidade. O artigo 3º estabelece como princípio fundamental a “explicabilidade e contestabilidade” dos sistemas. Isso não é mero tecnicismo jurídico — é filosofia aplicada. Como Frank Pasquale observou em “The Black Box Society”, algoritmos opacos concentram poder de maneira antidemocrática. Quando não sabemos como uma decisão foi tomada, perdemos a capacidade de contestá-la racionalmente.

Jürgen Habermas argumentou que a legitimidade democrática emerge de processos deliberativos onde as razões podem ser debatidas publicamente. Um algoritmo que não pode explicar suas decisões viola este princípio fundamental. A resolução reconhece isso ao exigir que sistemas sejam “auditáveis, interpretáveis e passíveis de explicação”. É uma tentativa corajosa de aplicar os ideais iluministas de transparência e razão pública à era da inteligência artificial.

Contudo, há uma tensão inevitável entre explicabilidade e eficácia algorítmica. Os sistemas de deep learning mais poderosos são frequentemente os mais opacos. É o que alguns chamam de “dilema da performance versus interpretabilidade“. A resolução opta claramente pela interpretabilidade, mesmo que isso implique algum sacrifício em termos de eficiência pura.

Viés algorítmico e a perpetuação das injustiças

Cathy O’Neil cunhou o termo “armas de destruição matemática” para algoritmos que aumentam desigualdades em escala. No contexto judicial, este risco é particularmente grave. Se treinarmos sistemas com dados históricos enviesados — e todo sistema judicial tem vieses históricos — corremos o risco de automatizar e amplificar injustiças seculares.

A resolução aborda esta questão de várias formas. Primeiro, estabelece a “promoção da igualdade e não discriminação” como fundamento. Segundo, exige que sistemas sejam auditados regularmente para detectar vieses. Terceiro, proíbe expressamente o uso de IA para “valoração de traços de personalidade para fins de previsão de crimes” e “classificação ou ranqueamento de pessoas com base em atributos pessoais”.

Estas proibições são mais profundas do que parecem. Elas reconhecem algo fundamental sobre a dignidade humana: que não podemos ser reduzidos a padrões estatísticos ou perfis algorítmicos. Como disse Kant, pessoas são fins em si mesmas, não meios. Um algoritmo que nos classifica com base em “atributos pessoais” nos trata como objetos, não como sujeitos de direito.

A questão da supervisão humana

O princípio da “supervisão humana efetiva e adequada” perpassa toda a resolução. Mas o que significa, exatamente, supervisão humana numa era de processamento automatizado de milhares de casos? Há o risco do que alguns especialistas chamam de “automação bias” — a tendência humana de confiar excessivamente em recomendações automatizadas.

A experiência internacional sugere cautela. Na China, o sistema Smart Court processa milhões de casos com “juízes holográficos de IA“. Na Singapura, algoritmos otimizam agendamento de casos e assistem litigantes não representados. Os resultados são impressionantes em termos de eficiência, mas levantam questões profundas sobre o significado da justiça.

A resolução brasileira parece consciente destes dilemas. Ela não apenas exige supervisão humana, mas especifica que esta deve ser “efetiva e adequada”. Isso implica que o supervisor humano deve genuinamente compreender e avaliar as recomendações algorítmicas, não apenas referendá-las automaticamente.

A governança da inteligência artificial judicial

Uma das inovações mais interessantes da resolução é a criação do Comitê Nacional de Inteligência Artificial do Judiciário. Com 14 membros titulares representando diferentes setores — magistratura, OAB, Ministério Público, Defensoria Pública, sociedade civil — é uma tentativa de democratizar as decisões sobre IA judicial.

Interessante notar que apenas representantes do Judiciário têm direito a voto, enquanto os demais têm direito apenas a voz. Isso reflete a tensão entre independência judicial e accountability democrática. O Judiciário precisa manter sua independência, mas decisões sobre tecnologias que afetam todos os cidadãos não podem ser tomadas em total isolamento.

O Comitê também é responsável pela plataforma Sinapses, um repositório público de informações sobre sistemas de IA judicial. É uma tentativa de criar transparência institucional numa área tradicionalmente opaca. Como disse Brandeis, “sunlight is the best disinfectant” — a transparência é o melhor remédio contra abusos.

IA generativa e o futuro da advocacia

A resolução dedica atenção especial à IA generativa: sistemas como ChatGPT que podem produzir textos aparentemente humanos. Permite seu uso, mas com condições rigorosas: capacitação prévia obrigatória, supervisão humana contínua, vedação para dados sigilosos, conformidade com a LGPD.

Esta regulamentação surge após casos embaraçosos internacionais onde advogados usaram IA generativa que “alucinou” decisões judiciais inexistentes. No caso Mata v. Avianca, nos EUA, advogados foram multados em US$ 31.000 por citar precedentes falsos gerados por IA. No Brasil, casos similares já emergiram.

A questão é mais profunda que erros pontuais. IA generativa pode democratizar o acesso ao conhecimento jurídico — um advogado recém-formado pode ter acesso a capacidades de pesquisa antes restritas a grandes escritórios. Mas também pode criar novas assimetrias: quem tem acesso às melhores ferramentas de IA terá vantagens substanciais. É o dilema clássico da tecnologia: ela democratiza ou concentra poder?

O paradoxo da eficiência

A resolução surge num contexto de enorme pressão por eficiência judicial. O Brasil tem mais de 75 milhões de processos em tramitação. O sistema Victor consegue processar em 5 minutos o que um humano levaria 30 minutos. O Sócrates promete reduzir em 25% o tempo entre distribuição e primeira decisão. Os números são impressionantes.

Mas há algo inquietante na ideia de que justiça pode ser apenas uma questão de eficiência processual. Como observou Terry Pratchett com seu humor característico, “justiça, misericórdia, dever… mostre-me um átomo de justiça, uma molécula de misericórdia”. Justiça não é apenas velocidade — é também reflexão, ponderação, consideração das circunstâncias particulares de cada caso.

A resolução tenta equilibrar esta tensão ao manter decisões substantivas sob supervisão humana, relegando à IA principalmente tarefas “administrativas e de apoio”. Mas a linha entre administrativo e substantivo nem sempre é clara. Uma decisão sobre admissibilidade de recurso pode parecer técnica, mas pode determinar se alguém terá acesso a uma instância superior.

Lições da literatura e da filosofia

George Orwell nos alertou sobre um mundo onde “every sound you made was overheard, and except in darkness, every movement scrutinised”. Embora a IA judicial tenha propósitos benévolos, ela inevitavelmente implica vigilância massiva de comportamentos e padrões. Cada petição, cada decisão, cada movimento processual pode ser analisado e categorizado.

Michel Foucault descreveu como o Panóptico de Bentham se tornou metáfora da disciplina moderna. Quando sabemos que podemos estar sendo observados, modificamos nosso comportamento. IA judicial pode ter efeitos similares: advogados podem ajustar estratégias para “agradar” algoritmos, juízes podem convergir para padrões detectados como “normais” pelos sistemas.

Isso não é necessariamente ruim — padronização pode reduzir arbitrariedade e aumentar previsibilidade. Mas pode também reduzir criatividade jurídica e inovação interpretativa. Como disse o juiz Wendell Holmes, “life of the law has not been logic: it has been experience”. Se reduzirmos direito apenas à lógica algorítmica, perdemos a sabedoria acumulada da experiência humana.

A experiência internacional como espelho

O Brasil está numa posição única. Chegou à regulamentação da IA judicial após observar erros alheios, mas antes de cometer os próprios. A experiência americana com COMPAS, os casos de “hallucination” na advocacia, os problemas de transparência em sistemas europeus — tudo isso informou a resolução brasileira.

A abordagem baseada em riscos ecoa o AI Act europeu. A exigência de supervisão humana reflete lições americanas. A ênfase na transparência incorpora críticas de especialistas como Frank Pasquale e Cathy O’Neil. É uma síntese inteligente de melhores práticas internacionais adaptadas ao contexto brasileiro.

Mas também revela uma ansiedade fundamental: como regular uma tecnologia que evolui mais rapidamente que nossa capacidade de compreendê-la? A resolução tem vigência de quatro anos, mas em quatro anos a IA pode ter se transformado completamente. É como tentar regular o futuro com as ferramentas do presente.

Entre a promessa e o perigo

A Resolução CNJ 615/2025 é um documento notável, talvez um dos textos regulatórios mais sofisticados sobre IA judicial no mundo. Ela demonstra maturidade institucional e consciência dos riscos envolvidos. Estabelece princípios claros, procedimentos rigorosos, mecanismos de transparência e accountability.

Mas sua verdadeira prova será na implementação. Regulamentações excelentes no papel podem fracassar na prática se não houver recursos, capacitação e vontade institucional para aplicá-las. O Brasil tem histórico misto neste aspecto. Leis avançadas nem sempre se traduzem em práticas transformadoras.

A questão fundamental permanece: podemos humanizar a automação judicial? Podemos usar máquinas para tornar a justiça mais justa, mais acessível, mais eficiente, sem desumanizá-la? A resolução oferece um framework para tentar, mas a resposta só virá com o tempo e a experiência.

Reflexões finais

Voltemos a Kafka. Em “O Processo”, Josef K. nunca descobre por que está sendo julgado ou por quem. Morre “como um cão”, sem compreender seu destino. A Resolução CNJ 615/2025 representa uma promessa: que mesmo numa era de algoritmos, continuaremos sabendo por que e como somos julgados. Que a tecnologia servirá à transparência, não à opacidade; à justiça, não à eficiência pura; à dignidade humana, não à racionalização desumana.

É uma promessa audaciosa. Como toda promessa, depende dos que a fazem e dos que a cobram. Nós, operadores do direito, somos ambos — prometedores e cobradores. A resolução nos dá as ferramentas. Resta ver se temos a sabedoria para usá-las bem.

Em tempos de inteligência artificial, talvez a verdadeira inteligência esteja em reconhecer os limites tanto das máquinas quanto dos humanos, e buscar a complementaridade entre ambos. Não se trata de substituir o juiz pela máquina, nem de rejeitar a tecnologia por medo do desconhecido. Trata-se de encontrar o equilíbrio entre eficiência e humanidade, entre padronização e individualização, entre inovação e tradição.

A balança da justiça, símbolo milenar do direito, nunca foi apenas sobre pesar evidências. Foi sobre encontrar equilíbrio. Na era da inteligência artificial, esse equilíbrio se torna ainda mais complexo e ainda mais necessário. A Resolução CNJ 615/2025 é nossa tentativa coletiva de encontrá-lo. O futuro dirá se fomos bem-sucedidos.


Henrique Araújo é professor de Direito

TAGS:

Hey,

o que você achou deste conteúdo? Conte nos comentários.

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *