O risco de automatizar o que exige humanidade: quando o suporte por IA vira uma barreira ao invés de solução

O risco de automatizar o que exige humanidade: quando o suporte por IA vira uma barreira ao invés de solução

ai-technology-brain-background-digital-transformation-concept

A inteligência artificial promete agilidade no Judiciário, mas pode estar criando barreiras para quem mais precisa de justiça. Entenda os riscos, as falhas dos sistemas automatizados e porque o suporte humano ainda é essencial.

Nos últimos anos, a inteligência artificial (IA) tem sido vendida como a grande salvadora de tempo, dinheiro e paciência. Seja no atendimento ao consumidor, na automação de tarefas repetitivas ou mesmo no Judiciário, a promessa é sempre a mesma: agilidade, eficiência e modernização. Mas será que estamos mesmo prontos para confiar decisões importantes — e, muitas vezes, sensíveis — a sistemas que, por mais avançados que sejam, ainda operam de forma mecânica e desumanizada?

Basta pensar em algo que praticamente todo mundo já enfrentou: tentar resolver um problema na central de ajuda do Facebook. Você entra em contato, explica seu problema, e do outro lado você recebe uma resposta automática que não tem nada a ver com a sua dúvida. Você tenta de novo, escolhe outras opções, redireciona, responde, insiste… e tudo que você ganha é uma sensação de frustração e um problema ainda sem solução. Esse ciclo interminável e desgastante revela o grande ponto cego da automação: a ausência de empatia, de escuta e, acima de tudo, de personalização.

E é justamente esse modelo que muitos setores do poder público — inclusive o Judiciário — estão tentando importar como solução para a morosidade dos processos. O discurso é bonito: desafogar os juízes, acelerar os trâmites, economizar recursos públicos. Mas, na prática, o que se vê é a implantação de sistemas que reproduzem — e até ampliam — as falhas de um atendimento mecânico e insensível. Ou seja, corremos o risco de transformar a Justiça num grande chatbot mal treinado.

Um dos maiores problemas dessa transição apressada para a IA no Judiciário é que ela parte da premissa equivocada de que velocidade é sinônimo de eficiência. Claro que ninguém quer esperar anos por uma sentença, mas também não adianta receber uma decisão errada em poucos minutos. Em muitos casos, a “celeridade” vira sinônimo de injustiça, porque sacrifica o cuidado, a análise detalhada e o olhar humano que são essenciais quando estamos lidando com vidas, com conflitos reais e com direitos fundamentais.

Não são poucos os estudos que alertam para isso. A professora Dorinethe Bentes, por exemplo, destaca em seus trabalhos a importância da inclusão digital como pilar do acesso à Justiça. E aqui, inclusão digital não é só ter um computador ou internet em casa. É saber usar as ferramentas, entender as interfaces, conseguir navegar nos sistemas e, principalmente, ter com quem contar quando a máquina falha​. Porque ela vai falhar. E quando isso acontece, quem está na ponta, muitas vezes já vulnerável por natureza, fica desamparado.

A realidade brasileira é marcada por desigualdades gritantes. Enquanto algumas pessoas conseguem lidar bem com ambientes digitais, outras mal sabem abrir um e-mail. O Judiciário, ao investir pesado em plataformas digitais e sistemas automatizados, precisa entender que essas diferenças importam. O risco é criar uma nova forma de exclusão: a exclusão digital judicial. Ou seja, quem não domina a tecnologia fica fora do processo, sem defesa, sem informação, sem Justiça.

A própria ideia do Programa Justiça 4.0, encabeçada pelo CNJ (Conselho Nacional de Justiça), parte de uma intenção válida: usar a IA como aliada para melhorar a eficiência e reduzir a morosidade. No entanto, os documentos e estudos debatidos nos congressos da área mostram que, sem um suporte humano estruturado, essas ferramentas podem virar um tiro no pé​. É o caso, por exemplo, das pessoas que recebem uma decisão automatizada sem entender o motivo, sem ter como dialogar com o sistema e sem acesso a uma instância de revisão efetiva.

Mais do que nunca, é preciso falar sobre o suporte ao suporte. Sim, a IA pode ser uma aliada importante, mas ela não substitui a escuta, o bom senso, o olhar atento. É por isso que os sistemas judiciais digitais precisam de equipes humanas capacitadas para intervir quando a tecnologia falha. E falha com frequência. Aliás, como aponta o estudo “Obstáculos ao Acesso à Justiça: barreira virtual na sociedade da informação”, os próprios sistemas processuais eletrônicos muitas vezes são tão complexos que acabam se tornando mais um obstáculo do que uma solução​.

Quem já tentou peticionar em uma dessas plataformas sabe: elas são pesadas, confusas, e qualquer erro mínimo — um botão mal clicado, um campo não preenchido — pode travar o processo inteiro. Agora imagina isso do lado de quem não é advogado, que está apenas tentando entender por que sua pensão não foi paga ou seu nome foi negativado. Se o suporte é feito por IA, e a IA não entende a dor daquele usuário, o que sobra é frustração e abandono.

Essa lógica de terceirização da escuta, tão criticada por Byung-Chul Han na obra Psicopolítica, nos ajuda a entender o que está por trás dessa automação descontrolada: a tentativa de transformar tudo em dado, tudo em fluxo, tudo em produtividade. Mas a Justiça não é uma fábrica. E tratar o cidadão como um “input” de sistema é desumanizante​.

Existe também uma questão de responsabilidade civil que ainda está longe de ser resolvida. Quando um sistema de IA toma uma decisão errada, quem responde por isso? O desenvolvedor do software? O tribunal que o contratou? O juiz que clicou no botão “validar”? O Projeto de Lei nº 21/2020, que busca estabelecer um marco legal da inteligência artificial no Brasil, ainda está em debate e levanta mais perguntas do que respostas nesse campo​.

Outro ponto que merece atenção é o conceito de design centrado no usuário, algo que, segundo Dierle Nunes e Catharina Almeida, ainda é ignorado nas plataformas judiciais brasileiras​. Ou seja, os sistemas são feitos pensando no funcionamento técnico, e não na experiência do usuário. Isso gera um distanciamento enorme entre quem projeta e quem usa, criando plataformas que “funcionam”, mas não resolvem nada. E isso quando funcionam, porque muitas vezes elas travam, não salvam as informações corretamente ou exigem atualizações constantes que os usuários nem sabem como fazer.

Nesse cenário, a IA entra como mais uma camada de complexidade, e não de solução. E o pior: ela faz isso com a aura de modernidade e infalibilidade. Como se uma decisão automatizada fosse, por definição, mais “correta”. Mas quem entende um pouco da lógica dos algoritmos sabe: eles não são neutros. Eles aprendem com dados passados, que refletem preconceitos, desigualdades e distorções do mundo real. Ou seja, um sistema de IA treinado com dados judiciais pode muito bem aprender a decidir com base em padrões injustos. E sem supervisão humana, esses erros viram regra.

Não estamos falando de ficção científica. São situações reais, que já ocorrem em tribunais do mundo todo. Nos Estados Unidos, por exemplo, um sistema chamado COMPAS foi usado para prever a reincidência criminal de réus e acabou sendo acusado de racismo algorítmico. No Brasil, ainda estamos engatinhando nesse debate, mas já há casos de decisões que foram fortemente influenciadas por sistemas automatizados — e que se mostraram falhas depois.

Tudo isso reforça a necessidade de uma abordagem crítica e responsável sobre o uso da tecnologia no Judiciário. Não basta “implantar IA”. É preciso pensar para quem, como, com que acompanhamento e com quais mecanismos de correção. Sem isso, a tecnologia vira mais uma ferramenta de exclusão, mascarada de inovação.

A Justiça deve ser acessível, humana e transparente. E a tecnologia pode — e deve — ajudar nesse caminho. Mas ela não pode ser usada como uma cortina de fumaça para esconder a falta de servidores, a ausência de investimentos e o abandono do contato direto com o cidadão. Em muitos casos, o tempo que a pessoa gasta tentando ser entendida por um sistema automático é muito maior do que gastaria se pudesse simplesmente conversar com um atendente treinado.

Portanto, antes de investir milhões em IA para julgar processos, talvez o Judiciário devesse investir em gente. Gente que entende, escuta, acolhe e resolve. A tecnologia pode até dar o suporte. Mas o suporte de verdade, aquele que faz diferença, continua sendo humano.

  • Han, Byung-Chul. Psicopolítica – O neoliberalismo e as novas técnicas de poder. Reflexões críticas sobre como o controle psicológico e tecnológico transforma relações humanas, inclusive no Judiciário​.
  • Yara Garcia Reis e Antonio Gomes de Vasconcelos. Morosidade, inovação e o Conselho Nacional de Justiça: o programa Justiça 4.0 e a inclusão digital. Destaca os desafios e perigos da implementação apressada da IA no Judiciário brasileiro, sem estrutura adequada​.
  • Dierle Nunes e Catharina Almeida. A influência do design centrado nos sujeitos processuais como auxiliar da efetividade das plataformas judiciais eletrônicas. Mostra como o foco no usuário é essencial para o sucesso da digitalização da Justiça​.
  • Dorinethe dos Santos Bentes e Sarah Fernandes Curvino. Responsabilidade civil pelos danos causados pelo uso e desenvolvimento da inteligência artificial. Aborda as lacunas jurídicas quando decisões erradas são tomadas por IA​.
  • Clara Hinys de Assis Paula et al. E-processo: obstáculos ao acesso à justiça – barreira virtual na sociedade de informação. Aponta como o processo digital pode virar uma barreira real para o acesso à Justiça​.
  • Inclusão Digital e Acesso à Justiça – XII Congresso RECAJ-UFMG. Debate sobre desigualdades tecnológicas e seus reflexos no Judiciário e na democracia brasileira​.
Compartilhe nas Redes Sociais
Anúncio