Direito de Explicação em Decisões Automatizadas proferidas pelo Poder Judiciário

Direito de Explicação em Decisões Automatizadas proferidas pelo Poder Judiciário

inteligência-artificial-no-judiciário

O artigo deste mês converge com minha pesquisa no mestrado da Universidade Presbiteriana Mackenzie, e também agradece e homenageia os Professores Débora Bonat, Fausto Morais, Fabiano Hartmann e Valter do Carmo, além dos professores e pesquisadores da Rede RESET/SIAJUS.

O artigo examina o direito de explicação nas decisões automatizadas no âmbito do Poder Judiciário brasileiro, articulando (i) a Resolução CNJ nº 615/2025, que estabelece diretrizes de governança, transparência, explicabilidade e contestabilidade para sistemas de IA no Judiciário; (ii) frameworks de governança de IA (NIST AI RMF 1.0, ISO/IEC 42001 e Princípios da OCDE), que oferecem ferramentas concretas para tornar a explicação auditável e útil; e (iii) a LGPD (Lei 13.709/2018), que assegura ao titular o direito de revisão e de ser informado sobre critérios e procedimentos de decisões automatizadas.

A explicação deve ser juridicamente suficiente (fundamentação + devido processo) e tecnicamente verificável (rastreabilidade, documentação e avaliação de impacto algorítmico), com supervisão humana efetiva e mecanismos de contestação acessíveis. (Atos CNJ)

No processo jurisdicional, a motivação das decisões é condição de validade (articulação clássica do devido processo). Quando técnicas de Inteligência Artificial entram na sala de audiências — seja para apoiar ou automatizar etapas — a explicabilidade deixa de ser apenas desiderato técnico e passa a ser exigência jurídico-constitucional de controle público.

A Resolução CNJ nº 615/2025 é explícita: princípios de transparência, explicabilidade, contestabilidade, auditabilidade e confiabilidade devem reger o ciclo de vida das soluções de IA do Judiciário, com supervisão humana efetiva e proporcional ao risco. (Atos CNJ)

O art. 20 da LGPD assegura ao titular (que, em processos com dados pessoais, frequentemente é a parte) o direito de revisão de decisões tomadas unicamente com base em tratamento automatizado, bem como o direito de receber informações claras e adequadas sobre critérios e procedimentos da decisão — abrindo espaço à auditoria pela ANPD em caso de negativa sob alegação de segredo comercial. (Serviços e Informações do Brasil)

  1. O que exatamente exige a Resolução CNJ nº 615/2025?

A norma determina, entre outros pontos:

  • Fundamentos e princípios: respeito a direitos fundamentais, transparência dos relatórios de auditoria e de avaliação de impacto algorítmico, proteção de dados pessoais, e explicabilidade como princípio. (Atos CNJ)
  • Transparência e prestação de contas: relatórios públicos, indicadores claros, divulgação compreensível do uso de IA e prestação de contas sobre custos, responsáveis e conformidade. (Atos CNJ)
  • Explicabilidade “quando tecnicamente possível”: modelos devem possuir mecanismos para tornar decisões e operações compreensíveis e auditáveis pelos operadores judiciais — o que, na prática, demanda documentação, logging e trilhas de decisão. (Atos CNJ)
  • Supervisão humana e contestabilidade: a utilização de IA no auxílio à produção de decisões exige supervisão, revisão e intervenção humana da magistratura, preservando contraditório e ampla defesa. (Atos CNJ)

Ainda que a IA atue como ferramenta de apoio, o dever de motivar permanece humano; e se houver componente automatizado que afete a esfera jurídica, a explicação deve permitir verificação externa (partes, Ministério Público, defesa, controle social), e claro, do próprio jurisdicionado por meio de um especialista que possa analisar e interpretar os relatórios.

  1. LGPD e o núcleo do direito de explicação

A LGPD estrutura dois eixos:

  1. Revisão de decisões unicamente automatizadas que afetem interesses (ex.: classificação de risco, seleção de casos, priorização processual baseada em perfil, etc.);
  2. Informações claras e adequadas sobre critérios e procedimentos (explicação acessível e útil), com possibilidade de auditoria pela ANPD quando houver recusa fundada em segredo industrial. (Planalto)

Para o Judiciário, isso impõe governança probatória: registrar dados de entrada, versões de modelo, parâmetros relevantes, métricas de desempenho e de viés, e racional de decisão na cadeia de custódia algorítmica — para que a explicação seja reconstituível e contestável no processo.

O direito de explicação não se implementa por decreto: precisa de métodos. Três referências complementares (que não se esgotam em si mesmas, mas que são aqui citadas apenas para fins exemplificativos):

  • NIST AI RMF 1.0 (EUA): propõe funções Govern, Map, Measure, Manage, com ênfase em rastreabilidade, gestão de riscos, documentação e métricas de confiabilidade e impacto — inclusive perfis para IA generativa publicados em 2024. Útil para desenhar processos de explicabilidade, testes de robustez e gestão de vieses. (nvlpubs.nist.gov)
  • ISO/IEC 42001:2023: primeiro sistema de gestão (AIMS) para IA, integrando governança, avaliação de impacto, gestão do ciclo de vida e controle de fornecedores — dá a “espinha dorsal” auditável que o CNJ exige. (ISO)
  • Princípios da OCDE (2019, atualizados 2024/2025): base de IA confiável (direitos humanos, transparência, responsabilidade, robustez) e interoperabilidade regulatória — ótimo referencial para políticas internas e comunicação pública. (oecd.ai)

Esses e outros frameworks permitem transformar “explicabilidade” em artefatos: fichas de sistema (model cards), datasheets de conjuntos de dados, relatórios de avaliação de impacto algorítmico, matrizes de risco e trilhas de decisão.

  1. Padrões mínimos de explicação “jurídica + técnica”

Aqui de forma exemplificativa, posto que não pretendo esgotar o tema, seguem cinco requisitos operacionais para decisões judiciais com IA:

  1. Indicabilidade: deixar claro quando e como a IA foi usada, com descrição funcional (apoio/automatização), versão do modelo e base de dados pertinente — em linguagem acessível na decisão (resumo) e técnica em anexo. (Atos CNJ)
  2. Rastreabilidade e reprodutibilidade: registro de entradas, pesos relevantes (ou características explicativas), métricas e logs capazes de reconstruir o raciocínio algorítmico em auditoria. (Atos CNJ)
  3. Explicação centrada no caso: não basta explicar “como o modelo funciona em geral”; é preciso explicar por que aquela saída foi razoável naquele processo (feature importance local, contrafactuais, regras derivadas). (nvlpubs.nist.gov)
  4. Contestabilidade efetiva: disponibilizar meios e prazos para impugnação, inclusive acesso às informações claras e adequadas sobre critérios e procedimentos, na linha do art. 20 da LGPD e dos princípios da Res. 615/2025. (Serviços e Informações do Brasil)
  5. Supervisão humana qualificada: juiz(a) mantém responsabilidade pela motivação e deve demonstrar compreensão crítica sobre limites do sistema (dados, vieses, incerteza), ajustando a confiança ao risco. (Atos CNJ)

Conclusão

O direito de explicação nas decisões automatizadas judiciais é ponte entre fundamentação e tecnologia. A Resolução CNJ 615/2025 fornece os princípios (explicabilidade, contestabilidade, auditoria, transparência); a LGPD dá os direitos e remédios (revisão e informações claras); e os frameworks (NIST, ISO 42001, OCDE) oferecem o como fazer.

Isso preservará a autoridade da jurisdição, fortalece confiança pública e evita que algoritmos invisíveis passem a sentença no lugar do devido processo.

Compartilhe nas Redes Sociais
Anúncio
Últimas Colunas
Anúncio
Espaço Acadêmico
Anúncio
Anúncio