
O Poder Judiciário brasileiro processa mais de 77 milhões de processos anualmente. Diante desta montanha de demandas, magistrados e servidores buscam desesperadamente soluções que acelerem a prestação jurisdicional sem comprometer qualidade das decisões. A inteligência artificial surge como promessa sedutora: sistemas capazes de analisar milhares de processos simultaneamente, identificar padrões jurisprudenciais e até sugerir decisões baseadas em precedentes.
Contudo, essa revolução tecnológica no coração da Justiça traz dilemas profundos que vão muito além de questões técnicas. Quando algoritmos influenciam decisões que afetam liberdade, patrimônio e direitos fundamentais das pessoas, surgem questionamentos sobre imparcialidade, transparência e própria essência da função jurisdicional.
Tribunais de todo país já implementam diversas ferramentas de IA com diferentes níveis de sofisticação e autonomia decisória:
TJRJ – Sistema Radar: Identifica automaticamente processos de execução fiscal com alta probabilidade de prescrição, sugerindo extinção imediata sem necessidade de análise individual detalhada.
STF – Victor: Analisa recursos extraordinários para verificar repercussão geral, classificando automaticamente petições que não atendem requisitos mínimos de admissibilidade.
TST – Bem-te-vi: Examina recursos de revista identificando aqueles que claramente não preenchem pressupostos de admissibilidade recursal.
Estes sistemas operam principalmente em tarefas de triagem e classificação, mas gradualmente assumem responsabilidades mais complexas. O Tribunal de Justiça de Rondônia desenvolveu ferramenta que analisa acordos de delação premiada, enquanto outros tribunais experimentam IA para cálculos de indenizações em acidentes de trânsito.
Estes benefícios são particularmente valiosos em um sistema sobrecarregado onde demora processual compromete efetividade da Justiça. A automação de tarefas repetitivas permite que recursos humanos sejam direcionados para atividades que realmente exigem cognição judicial sofisticada.
Algoritmos aprendem com dados históricos, perpetuando preconceitos existentes no sistema judicial. Se decisões passadas foram influenciadas por discriminação racial, social ou econômica, sistemas de IA podem amplificar esses vieses de forma sistemática e menos detectável.
Exemplo prático: Sistema treinado com sentenças de tribunais que historicamente aplicaram penas mais severas a réus negros pode recomendar automaticamente punições mais rigorosas para este grupo, mascarando discriminação sob aparência de objetividade técnica.
Muitos algoritmos de IA operam como “caixas pretas”, produzindo resultados sem explicar claramente o raciocínio utilizado. Esta opacidade é incompatível com princípios fundamentais do devido processo legal, que exige que decisões judiciais sejam fundamentadas e compreensíveis.
Questões críticas:
Embora consistência seja valor importante, diversidade interpretativa também é essencial para evolução do direito. Sistemas que padronizam excessivamente decisões podem inibir desenvolvimento jurisprudencial criativo e adaptação do direito a novas realidades sociais.
Estados Unidos – COMPAS: Sistema utilizado para avaliar risco de reincidência criminal foi criticado por discriminar réus negros, atribuindo-lhes sistematicamente scores de risco mais altos. Investigação jornalística revelou que algoritmo reproduzia padrões de discriminação racial existentes no sistema penal.
Reino Unido – Harm Assessment Risk Tool (HART): Ferramenta para prever violência doméstica foi abandonada após críticas sobre precisão e potencial para estigmatização de comunidades específicas.
Estônia – Pequenas Causas: País implementou sistema para decidir automaticamente disputas contratuais de valor inferior a €7.000, mas mantém sempre possibilidade de revisão humana mediante solicitação.
França – Restrições Constitucionais: Conselho Constitucional francês estabeleceu que sistemas de IA no judiciário não podem substituir completamente decisão humana em questões que afetem direitos fundamentais.
Estas experiências demonstram tanto potencial quanto perigos da IA judicial, destacando necessidade de implementação cuidadosa com salvaguardas adequadas.
Constituição Federal estabelece que função jurisdicional é privativa do Poder Judiciário, exercida por juízes investidos na forma da lei. Delegação de decisões judiciais para algoritmos levanta questões sobre constitucionalidade e legalidade desta prática.
Argumentos favoráveis:
Argumentos contrários:
O devido processo legal exige que decisões judiciais sejam tomadas por autoridade competente, mediante procedimento adequado, com possibilidade de defesa e recurso. Utilização de IA deve respeitar estas garantias fundamentais.
Requisitos mínimos:
Desenvolvimento de legislação específica para IA no judiciário poderia estabelecer:
Subsidiariedade: IA deve complementar, não substituir, julgamento humano em questões que envolvam interpretação legal complexa ou apreciação de circunstâncias fáticas controversas.
Proporcionalidade: Grau de automação deve ser proporcional à complexidade e importância da decisão. Questões que afetem direitos fundamentais exigem maior supervisão humana.
Transparência: Partes processuais devem ser informadas sobre utilização de IA e ter acesso a explicações sobre recomendações algorítmicas quando estas influenciem decisões.
Auditabilidade: Sistemas devem permitir verificação externa de funcionamento, identificação de vieses e correção de falhas.
Começar com automação de atividades puramente administrativas: cálculos, verificação de prazos, classificação inicial de processos. Estas atividades apresentam menor risco de violação de direitos e permitem desenvolvimento de expertise técnica.
Expandir para análise de requisitos formais de petições e recursos. Sistemas podem identificar automaticamente deficiências técnicas óbvias, mas sempre com possibilidade de revisão humana.
Implementar sistemas que fornecem sugestões de decisão com fundamentação detalhada, mas mantendo magistrado como decisor final. Transparência total sobre funcionamento do algoritmo.
Monitoramento contínuo para identificar vieses, erros sistemáticos ou consequências não intencionais. Ajustes regulares baseados em feedback de usuários e análise de resultados.
A integração entre inteligência artificial e sistema judicial é irreversível, mas sua trajetória ainda está sendo definida. O desafio central não é escolher entre humanos ou máquinas, mas encontrar equilíbrio que preserve valores fundamentais da Justiça enquanto aproveita benefícios da tecnologia.
Cenários possíveis:
→ Integração Harmoniosa: IA atua como assistente sofisticado, liberando magistrados para questões verdadeiramente complexas enquanto acelera rotinas burocráticas
→ Dependência Excessiva: Gradual transferência de responsabilidades para algoritmos pode comprometer qualidade decisória e autonomia judicial
→ Resistência Institucional: Rejeição da tecnologia pode perpetuar ineficiências sistêmicas e prejudicar acesso à Justiça
Para magistrados: Investir em educação tecnológica básica, participar ativamente do desenvolvimento de sistemas, manter ceticismo saudável sobre recomendações algorítmicas e sempre exercer supervisão efetiva.
Para advogados: Compreender funcionamento de sistemas utilizados pelos tribunais, questionar decisões que pareçam baseadas inadequadamente em automação, documentar possíveis vieses algorítmicos.
Para cidadãos: Acompanhar debates sobre IA judicial, exercer direito de saber quando decisões envolvem automação, questionar através de recursos adequados quando necessário.
Para desenvolvedores: Priorizar transparência e auditabilidade, incluir juristas no desenvolvimento de sistemas, implementar mecanismos de detecção de viés, manter documentação técnica acessível.
A inteligência artificial no judiciário representa tanto oportunidade histórica para modernização da Justiça quanto desafio fundamental para preservação de garantias constitucionais. O sucesso desta transformação dependerá de implementação gradual, transparente e sempre subordinada aos princípios fundamentais do Estado Democrático de Direito. Não se trata de escolher entre eficiência e justiça, mas de garantir que busca por celeridade não comprometa qualidade e legitimidade das decisões judiciais. O futuro será determinado por nossa capacidade de humanizar a tecnologia, não de tecnologizar a humanidade.
Advogado, especialista em Redes de Computadores, Segurança da Informação e Proteção de Dados. Pesquisador de novas tecnologias e amante do estudo da evolução da sociedade com as novas demandas tecnológicas.
© 2025 Pod Acessar – Política de Privacidade
Desenvolvido por Querida Designer