INTELIGÊNCIA ARTIFICIAL E PROCESSO JUDICIAL: FUNDAMENTAÇÃO DAS DECISÕES, EXPLICABILIDADE ALGORÍTMICA E DEVIDO PROCESSO LEGAL TECNOLÓGICO

INTELIGÊNCIA ARTIFICIAL E PROCESSO JUDICIAL: FUNDAMENTAÇÃO DAS DECISÕES, EXPLICABILIDADE ALGORÍTMICA E DEVIDO PROCESSO LEGAL TECNOLÓGICO

2 de abril de 2026 Off Por Cognitio Juris

ARTIFICIAL INTELLIGENCE AND LEGAL PROCESS: RATIONALE FOR DECISIONS, ALGORITHMIC EXPLANABILITY AND TECHNOLOGICAL DUE PROCESS

Artigo submetido em 30 de março de 2026
Artigo aprovado em 02 de abril de 2026
Artigo publicado em 02 de abril de 2026

Cognitio Juris
Volume 16 – Número 59 – 2026
ISSN 2236-3009
Autor(es):
André Santana de Souza[1]

Resumo: A incorporação de sistemas de inteligência artificial no funcionamento do Poder Judiciário representa uma das manifestações mais relevantes da transformação digital contemporânea no campo jurídico. O uso de ferramentas algorítmicas voltadas à triagem processual, à identificação de padrões decisórios e ao apoio à atividade jurisdicional inaugura novas possibilidades de racionalização institucional, mas também impõe desafios significativos à preservação das garantias fundamentais do processo. O presente estudo analisa os limites jurídicos da utilização da inteligência artificial no processo judicial, com especial atenção à exigência de fundamentação das decisões, à transparência dos sistemas algorítmicos e à necessidade de controle humano sobre a atividade decisória. A pesquisa adota abordagem qualitativa, com base em revisão bibliográfica e análise normativa, dialogando especialmente com as contribuições de Leonardo Parentoni, Luís Manoel Borges do Vale, Débora Bonat e outros autores que investigam as relações entre Direito, tecnologia e processo. Examina-se, ainda, o Projeto de Lei nº 2.338/2023, destacando-se sua tentativa de estabelecer um modelo regulatório orientado pela proteção de direitos fundamentais e pela governança responsável da inteligência artificial. Conclui-se que a legitimidade democrática da justiça digital depende da construção de um modelo de devido processo legal tecnológico fundado em transparência, explicabilidade, auditabilidade, contestabilidade e supervisão humana.

Palavras-chave: inteligência artificial; processo judicial; devido processo legal tecnológico; explicabilidade algorítmica; fundamentação das decisões judiciais; regulação da inteligência artificial.

Abstract: The incorporation of artificial intelligence systems into the functioning of the Judiciary represents one of the most significant manifestations of contemporary digital transformation within the legal field. The use of algorithmic tools for procedural triage, identification of decision-making patterns, and support for judicial activity introduces new possibilities for institutional efficiency and rationalization. However, it also raises significant challenges concerning the preservation of fundamental procedural guarantees. This study analyzes the legal limits of the use of artificial intelligence in judicial proceedings, with particular attention to the requirement of reasoned judicial decisions, algorithmic transparency, and the necessity of human oversight in decision-making processes. The research adopts a qualitative approach based on bibliographic review and normative analysis, engaging especially with the works of Leonardo Parentoni, Luís Manoel Borges do Vale, Débora Bonat, and other scholars who investigate the relationship between law, technology, and judicial process. The article also examines Bill No. 2,338/2023, highlighting its attempt to establish a regulatory framework oriented toward the protection of fundamental rights and the responsible governance of artificial intelligence. The study concludes that the democratic legitimacy of digital justice depends on the development of a model of technological due process grounded in transparency, explainability, auditability, contestability, and human oversight.

Keywords: artificial intelligence; judicial process; technological due process; algorithmic explainability; reasoning of judicial decisions; artificial intelligence regulation.

1 INTRODUÇÃO

A transformação digital da sociedade contemporânea constitui um dos fenômenos mais significativos da chamada quarta revolução industrial, caracterizada pela intensa integração entre sistemas computacionais, processamento massivo de dados e automação de atividades tradicionalmente desempenhadas por seres humanos. Tecnologias como inteligência artificial, blockchain, internet das coisas (IoT), computação em nuvem e aprendizado de máquina passaram a integrar de maneira estruturante as dinâmicas econômicas, administrativas e institucionais, alterando profundamente a forma como decisões são produzidas, como informações são processadas e como conflitos são solucionados.

Nesse contexto, o Direito, enquanto sistema normativo destinado à regulação das relações sociais, passa a enfrentar o desafio de lidar com novas estruturas tecnológicas que modificam as premissas clássicas sobre as quais se construíram diversos institutos jurídicos tradicionais. A emergência de ambientes digitais hiperconectados, caracterizados pela coleta, processamento e circulação contínua de dados em larga escala, exige uma reinterpretação de conceitos fundamentais do ordenamento jurídico, tais como responsabilidade, controle institucional, transparência decisória e proteção de direitos fundamentais.

A literatura contemporânea tem destacado que a sociedade atual se encontra imersa em uma infraestrutura digital onipresente, na qual dispositivos, plataformas e sistemas computacionais interagem continuamente para produzir fluxos de informação capazes de orientar decisões individuais e institucionais. Nesse cenário, a inteligência artificial assume papel central, uma vez que possibilita a análise automatizada de grandes volumes de dados, permitindo a identificação de padrões, a formulação de previsões e, em alguns casos, a geração de conteúdos complexos.

Leonardo Parentoni observa que a inteligência artificial deve ser compreendida como um conjunto de técnicas computacionais voltadas à simulação de determinadas capacidades cognitivas humanas, especialmente aquelas relacionadas à identificação de padrões e à tomada de decisões baseadas em dados. Entretanto, o autor ressalta que tais sistemas não possuem compreensão semântica genuína, operando fundamentalmente por meio de processos estatísticos e probabilísticos. Dessa forma, as expectativas sociais em relação à inteligência artificial frequentemente ultrapassam suas capacidades reais, o que exige uma abordagem regulatória pautada pela prudência e pela análise de riscos.

Nas últimas décadas, o desenvolvimento de sistemas de inteligência artificial tem avançado significativamente, sobretudo com o surgimento de modelos baseados em aprendizado profundo e em redes neurais artificiais capazes de processar quantidades massivas de dados. Mais recentemente, o avanço dos chamados modelos de linguagem de grande escala (Large Language Models – LLMs) inaugurou uma nova etapa no desenvolvimento dessas tecnologias, permitindo a criação de sistemas capazes de produzir textos complexos, sintetizar informações e responder a perguntas em linguagem natural com elevado grau de sofisticação linguística.

A difusão dessas tecnologias, especialmente a partir da popularização de ferramentas de inteligência artificial generativa, intensificou o debate acadêmico e institucional acerca dos limites jurídicos de sua utilização em diferentes esferas da vida social. Bonat, Vale e Pereira destacam que a capacidade desses sistemas de produzir respostas estruturadas e textos complexos a partir do processamento de grandes bases de dados tem provocado profundas reflexões sobre sua possível utilização em atividades decisórias, inclusive no âmbito do Poder Judiciário.

No campo jurídico, tais transformações têm repercutido de maneira particularmente intensa no funcionamento das instituições responsáveis pela administração da justiça. O Poder Judiciário, historicamente estruturado a partir de modelos procedimentais fortemente baseados na atuação humana, passou gradualmente a incorporar tecnologias digitais destinadas à otimização de fluxos processuais, à organização de dados e ao apoio à atividade decisória.

A implantação do processo judicial eletrônico representou uma das primeiras etapas dessa transformação, permitindo a digitalização de atos processuais e a ampliação da eficiência administrativa dos tribunais. Posteriormente, o desenvolvimento de sistemas baseados em inteligência artificial passou a possibilitar novas formas de automação de atividades jurisdicionais, incluindo a triagem de processos, a identificação de precedentes relevantes e a análise de admissibilidade recursal.

Experiências recentes no Judiciário brasileiro demonstram a crescente utilização de sistemas computacionais avançados para apoio à atividade jurisdicional. Ferramentas como plataformas de análise de precedentes, sistemas de triagem automatizada de processos e mecanismos de apoio à tomada de decisões passaram a integrar a rotina de diversos tribunais, evidenciando o processo de transformação digital da justiça.

Entretanto, a incorporação dessas tecnologias no processo judicial suscita relevantes questionamentos relacionados à preservação das garantias fundamentais do processo. A utilização de sistemas algorítmicos em contextos decisórios sensíveis levanta preocupações relacionadas à transparência dos critérios utilizados pelos sistemas computacionais, à possibilidade de reprodução de vieses discriminatórios e à dificuldade de compreensão dos mecanismos internos de funcionamento dos algoritmos.

Essas preocupações tornam-se particularmente relevantes no contexto da atividade jurisdicional, na qual a legitimidade das decisões depende não apenas da correção jurídica de seus fundamentos, mas também da possibilidade de controle e contestação por parte das partes e da sociedade.

No ordenamento jurídico brasileiro, a exigência de fundamentação das decisões judiciais constitui uma das garantias centrais do Estado de Direito. A Constituição Federal estabelece, em seu art. 93, inciso IX, que todas as decisões judiciais devem ser fundamentadas, sob pena de nulidade. Essa exigência encontra desenvolvimento detalhado no Código de Processo Civil, especialmente no art. 489, §1º, que estabelece parâmetros rigorosos para a fundamentação das decisões judiciais.

A utilização de sistemas de inteligência artificial no processo decisório judicial não pode afastar essas exigências normativas, sob pena de comprometer a legitimidade democrática da atividade jurisdicional. Nesse sentido, a literatura jurídica recente tem enfatizado a necessidade de desenvolvimento de novos marcos teóricos capazes de orientar a utilização dessas tecnologias no sistema de justiça.

Entre esses marcos teóricos destaca-se o conceito de devido processo legal tecnológico, desenvolvido por Luís Manoel Borges do Vale. Segundo o autor, a incorporação de tecnologias digitais no funcionamento do processo judicial exige a adaptação das garantias processuais tradicionais às novas dinâmicas introduzidas pelos sistemas computacionais.

O devido processo legal tecnológico pressupõe a observância de requisitos como transparência, explicabilidade, auditabilidade e contestabilidade das decisões produzidas com apoio de sistemas algorítmicos. Esses elementos são considerados essenciais para garantir que a utilização de tecnologias no processo judicial não comprometa os direitos fundamentais das partes nem a legitimidade institucional do Poder Judiciário.

Vale e Piva destacam que a crescente utilização de sistemas de inteligência artificial no âmbito da justiça digital exige a construção de mecanismos institucionais capazes de assegurar o controle humano sobre as decisões automatizadas, bem como a possibilidade de verificação e contestação dos critérios utilizados pelos algoritmos.

Nesse contexto, a discussão acerca da utilização da inteligência artificial no processo judicial insere-se em um debate mais amplo sobre governança tecnológica e regulação de sistemas algorítmicos. A expansão dessas tecnologias exige a construção de estruturas normativas capazes de conciliar inovação tecnológica com proteção de direitos fundamentais.

O presente estudo busca contribuir para esse debate, analisando os limites jurídicos da utilização da inteligência artificial no processo judicial, com especial atenção aos requisitos de transparência, explicabilidade e controlabilidade das decisões produzidas com apoio tecnológico.

Para tanto, adota-se metodologia qualitativa baseada em revisão bibliográfica e análise normativa, dialogando com a literatura especializada nacional e internacional sobre inteligência artificial, processo judicial e regulação tecnológica. O estudo também examina iniciativas regulatórias recentes, especialmente o Projeto de Lei nº 2338/2023, que estabelece diretrizes para o desenvolvimento e utilização de sistemas de inteligência artificial no Brasil.

A partir dessa análise, pretende-se demonstrar que a incorporação de tecnologias baseadas em inteligência artificial no sistema de justiça somente pode ocorrer de forma legítima se acompanhada de mecanismos institucionais capazes de assegurar a preservação das garantias fundamentais do processo e a transparência das decisões judiciais.

2 INTELIGÊNCIA ARTIFICIAL: CONCEITO, EXPECTATIVAS E LIMITES

A inteligência artificial constitui um campo interdisciplinar que envolve o desenvolvimento de sistemas computacionais capazes de realizar tarefas complexas por meio da análise de grandes volumes de dados.

Segundo Leonardo Parentoni, a inteligência artificial deve ser compreendida como um conjunto de sistemas computacionais capazes de processar dados e identificar padrões estatísticos, produzindo respostas ou previsões com base em algoritmos de aprendizagem. Diferentemente de concepções antropomórficas frequentemente presentes no imaginário popular, tais sistemas não possuem consciência nem capacidade de compreensão semântica genuína.

Parentoni destaca que as expectativas sociais em relação à inteligência artificial frequentemente excedem suas capacidades reais, o que exige uma abordagem regulatória baseada em prudência e avaliação de riscos.

O avanço recente dos chamados modelos de linguagem de grande escala (LLMs), utilizados em sistemas de inteligência artificial generativa, intensificou o debate sobre suas aplicações institucionais. Conforme observam Bonat, Vale e Pereira, tais sistemas possuem a capacidade de produzir textos complexos e coerentes, a partir do treinamento em grandes bases de dados disponíveis na internet.

Contudo, a utilização desses modelos também apresenta limitações importantes, como a ocorrência de alucinações algorítmicas, isto é, respostas plausíveis, mas factualmente incorretas.

Esse fenômeno demonstra que tais tecnologias devem ser utilizadas com cautela, especialmente em contextos decisórios sensíveis, como o sistema de justiça.

3 TECNOLOGIA E TRANSFORMAÇÃO DO PROCESSO JUDICIAL

A inteligência artificial constitui atualmente um dos campos mais relevantes da interseção entre tecnologia, ciência da computação e governança institucional. Trata-se de um domínio interdisciplinar que reúne contribuições da matemática, estatística, ciência da computação, teoria da informação, linguística computacional e ciência de dados, voltado ao desenvolvimento de sistemas capazes de executar tarefas tradicionalmente associadas à cognição humana. Tais sistemas operam mediante o processamento de grandes volumes de dados, a identificação de padrões estatísticos e a geração de respostas ou previsões a partir de modelos computacionais treinados em bases informacionais extensas.

No campo conceitual, a inteligência artificial pode ser compreendida como o conjunto de técnicas e métodos computacionais que permitem a criação de sistemas capazes de simular determinadas capacidades cognitivas humanas, especialmente aquelas relacionadas ao reconhecimento de padrões, à classificação de informações, à formulação de previsões e à tomada de decisões baseadas em dados. A literatura especializada destaca que essas tecnologias se fundamentam em algoritmos de aprendizado de máquina, capazes de ajustar parâmetros internos a partir da exposição a grandes quantidades de dados, aprimorando gradualmente sua capacidade de identificar regularidades estatísticas.

Nesse sentido, Leonardo Parentoni observa que a inteligência artificial não deve ser compreendida como uma entidade dotada de autonomia cognitiva ou consciência própria, mas sim como um conjunto de sistemas computacionais destinados ao processamento avançado de dados. Segundo o autor, esses sistemas operam fundamentalmente por meio de técnicas estatísticas e probabilísticas, sendo capazes de identificar padrões em grandes bases informacionais e, a partir deles, produzir respostas, classificações ou previsões. Entretanto, tais sistemas não possuem compreensão semântica genuína nem capacidade de interpretar o significado das informações que processam, limitando-se à manipulação formal de dados com base em modelos matemáticos previamente definidos.

Essa constatação é particularmente relevante para a compreensão adequada do papel da inteligência artificial nas instituições contemporâneas. A literatura especializada frequentemente alerta para o risco de interpretações equivocadas acerca dessas tecnologias, muitas vezes influenciadas por concepções antropomórficas presentes no imaginário popular. A ideia de que sistemas de inteligência artificial seriam capazes de “pensar”, “entender” ou “decidir” de maneira autônoma não corresponde à realidade técnica dessas ferramentas, que permanecem dependentes de estruturas algorítmicas e bases de dados previamente definidas.

Parentoni destaca, nesse contexto, que as expectativas sociais em relação à inteligência artificial frequentemente excedem suas capacidades efetivas. A ampla divulgação de ferramentas tecnológicas capazes de produzir textos, imagens ou respostas em linguagem natural contribuiu para a construção de uma percepção social que tende a superestimar o grau de autonomia e confiabilidade desses sistemas. Tal fenômeno pode gerar riscos institucionais relevantes, especialmente quando tecnologias baseadas em inteligência artificial passam a ser incorporadas em ambientes decisórios sensíveis.

Diante desse cenário, diversos autores defendem que a utilização institucional de sistemas de inteligência artificial deve ser orientada por uma abordagem regulatória baseada na prudência e na análise de riscos. A governança dessas tecnologias exige mecanismos capazes de garantir transparência, controle humano e responsabilização, de modo a evitar que decisões relevantes sejam tomadas com base em sistemas cujos mecanismos de funcionamento permanecem opacos ou insuficientemente compreendidos.

Nas últimas décadas, o avanço das tecnologias de inteligência artificial foi impulsionado pelo desenvolvimento de técnicas de aprendizado profundo (deep learning) e pela crescente disponibilidade de grandes bases de dados digitais. Esses fatores permitiram a criação de modelos computacionais cada vez mais sofisticados, capazes de realizar tarefas complexas como reconhecimento de imagens, processamento de linguagem natural e análise preditiva.

Mais recentemente, uma nova etapa desse desenvolvimento tecnológico foi inaugurada com o surgimento dos chamados modelos de linguagem de grande escala (Large Language Models – LLMs). Esses sistemas são treinados a partir de enormes conjuntos de dados textuais, frequentemente compostos por bilhões ou trilhões de palavras provenientes de livros, artigos acadêmicos, páginas da internet e outras fontes digitais. A partir desse treinamento, os modelos são capazes de identificar padrões linguísticos complexos e gerar textos coerentes em linguagem natural.

Bonat, Vale e Pereira destacam que os modelos de linguagem de grande escala representam uma evolução significativa no campo da inteligência artificial generativa. Diferentemente de sistemas tradicionais baseados em regras explícitas, esses modelos utilizam redes neurais profundas capazes de capturar relações estatísticas complexas entre palavras e expressões. Como resultado, tais sistemas conseguem produzir respostas estruturadas, sintetizar informações e gerar textos com elevado grau de fluidez linguística.

A difusão dessas tecnologias tem provocado intensos debates sobre suas possíveis aplicações institucionais. Ferramentas baseadas em inteligência artificial generativa passaram a ser utilizadas em atividades como produção de textos, análise de documentos, elaboração de relatórios e assistência à tomada de decisões em diferentes contextos organizacionais.

No âmbito jurídico, essas tecnologias despertam particular interesse, uma vez que possuem potencial para auxiliar em atividades tradicionalmente intensivas em análise textual, como a pesquisa de precedentes, a elaboração de peças processuais e a análise de documentos jurídicos. Entretanto, a utilização de sistemas de inteligência artificial generativa no campo jurídico também levanta importantes preocupações relacionadas à confiabilidade e à verificabilidade das informações produzidas.

Uma das limitações mais relevantes desses sistemas consiste no fenômeno conhecido como alucinação algorítmica. Esse termo refere-se à produção de respostas plausíveis e linguisticamente coerentes que, contudo, não correspondem a informações factualmente corretas. Como os modelos de linguagem operam fundamentalmente por meio da identificação de padrões estatísticos presentes nos dados de treinamento, eles podem gerar afirmações que parecem convincentes, mas que não possuem base factual verificável.

No campo jurídico, esse fenômeno assume especial relevância, uma vez que a produção de informações incorretas pode comprometer a integridade do processo decisório. A geração de citações jurisprudenciais inexistentes, interpretações normativas equivocadas ou referências bibliográficas imprecisas representa um risco concreto quando tais ferramentas são utilizadas sem supervisão adequada.

Essas limitações demonstram que a utilização de sistemas de inteligência artificial deve ser acompanhada de mecanismos rigorosos de controle e verificação. A incorporação dessas tecnologias em ambientes institucionais exige a manutenção de supervisão humana qualificada, capaz de avaliar criticamente as informações produzidas pelos sistemas algorítmicos.

Essa necessidade torna-se ainda mais evidente quando se considera a possibilidade de utilização dessas tecnologias em contextos decisórios sensíveis, como o sistema de justiça. A atividade jurisdicional envolve a aplicação de normas jurídicas a situações concretas que frequentemente implicam impactos significativos sobre direitos fundamentais. Nesse cenário, a confiabilidade, a transparência e a controlabilidade das decisões constituem requisitos essenciais para a preservação da legitimidade institucional do Poder Judiciário.

Diante dessas considerações, torna-se evidente que a incorporação de tecnologias baseadas em inteligência artificial no funcionamento das instituições jurídicas deve ocorrer de maneira cautelosa e cuidadosamente estruturada. O desenvolvimento de marcos normativos e institucionais adequados constitui condição indispensável para assegurar que a utilização dessas ferramentas contribua para o aprimoramento do sistema de justiça, sem comprometer as garantias fundamentais que estruturam o Estado de Direito.

4 DEVIDO PROCESSO LEGAL TECNOLÓGICO

A expansão do uso de sistemas de inteligência artificial no âmbito do sistema de justiça impõe desafios significativos à teoria processual contemporânea. A incorporação de tecnologias capazes de analisar grandes volumes de dados, identificar padrões decisórios e auxiliar na produção de decisões judiciais exige a construção de novos referenciais teóricos capazes de compatibilizar a inovação tecnológica com a preservação das garantias fundamentais do processo.

Tradicionalmente, o processo judicial foi concebido como um procedimento estruturado em torno da atuação humana dos sujeitos processuais, especialmente magistrados, advogados, membros do Ministério Público e servidores do Poder Judiciário. As garantias processuais fundamentais — como o contraditório, a ampla defesa, a motivação das decisões e o controle recursal — foram historicamente desenvolvidas considerando esse contexto institucional, no qual a tomada de decisões jurisdicionais se baseava predominantemente na atividade interpretativa de indivíduos.

Entretanto, a crescente utilização de sistemas computacionais avançados no funcionamento do Poder Judiciário altera significativamente esse cenário. Ferramentas baseadas em inteligência artificial passaram a ser utilizadas em atividades relacionadas à triagem processual, análise de precedentes, classificação de documentos e apoio à tomada de decisões. Esse processo de transformação tecnológica levanta questões relevantes acerca da compatibilidade entre a utilização dessas ferramentas e os princípios estruturantes do processo judicial.

Nesse contexto, diversos autores têm defendido a necessidade de desenvolvimento de novos marcos conceituais capazes de orientar a utilização de tecnologias digitais no sistema de justiça. Entre essas propostas teóricas destaca-se o conceito de devido processo legal tecnológico, que busca adaptar as garantias clássicas do processo às novas dinâmicas institucionais introduzidas pela inteligência artificial e por outras tecnologias digitais.

O conceito de devido processo legal tecnológico parte da premissa de que a incorporação de sistemas computacionais no processo decisório judicial não pode resultar na erosão das garantias fundamentais do processo. Ao contrário, a utilização dessas tecnologias deve ocorrer de maneira compatível com os princípios constitucionais que estruturam o Estado de Direito, assegurando que as decisões produzidas com apoio de sistemas algorítmicos permaneçam sujeitas aos mesmos padrões de legitimidade democrática, transparência e controle jurídico aplicáveis às decisões judiciais tradicionais.

Sob essa perspectiva, a utilização de sistemas de inteligência artificial no processo judicial deve observar um conjunto de requisitos destinados a garantir a preservação das garantias processuais fundamentais. Entre esses requisitos destacam-se especialmente os princípios da transparência algorítmica, da explicabilidade, da auditabilidade, da contestabilidade e da supervisão humana.

A transparência algorítmica refere-se à necessidade de que os critérios utilizados pelos sistemas computacionais sejam suficientemente claros e acessíveis para permitir sua compreensão pelos operadores do direito e pelas partes envolvidas no processo. Embora determinados sistemas de inteligência artificial possam operar por meio de modelos matemáticos complexos, sua utilização em contextos institucionais sensíveis exige que os parâmetros gerais de funcionamento e os dados utilizados em seu treinamento sejam conhecidos e passíveis de avaliação.

A explicabilidade, por sua vez, diz respeito à capacidade de fornecer justificativas compreensíveis para os resultados produzidos por sistemas algorítmicos. No contexto do processo judicial, esse requisito assume especial relevância, uma vez que a legitimidade das decisões jurisdicionais depende da possibilidade de compreensão dos fundamentos que conduziram à conclusão decisória. Sistemas de inteligência artificial utilizados como instrumentos de apoio à decisão judicial devem, portanto, ser capazes de fornecer informações que permitam reconstruir o raciocínio decisório adotado.

Outro requisito fundamental é a auditabilidade dos sistemas algorítmicos. Esse princípio pressupõe a possibilidade de verificação independente do funcionamento dos sistemas de inteligência artificial, permitindo a identificação de eventuais falhas, vieses ou inconsistências nos modelos utilizados. A auditabilidade constitui elemento essencial para assegurar a confiabilidade institucional dessas tecnologias, bem como para permitir o controle externo de sua utilização no sistema de justiça.

A contestabilidade representa outro aspecto central do devido processo legal tecnológico. As partes envolvidas em um processo judicial devem possuir a possibilidade de questionar os resultados produzidos por sistemas algorítmicos, especialmente quando tais resultados influenciam a formação da decisão judicial. Esse princípio encontra fundamento direto nas garantias do contraditório e da ampla defesa, que asseguram às partes o direito de contestar os elementos utilizados na formação do convencimento do magistrado.

Por fim, a supervisão humana constitui requisito indispensável para a utilização legítima de sistemas de inteligência artificial no processo judicial. Ainda que ferramentas computacionais possam auxiliar na análise de dados e na organização de informações processuais, a responsabilidade final pela decisão jurisdicional deve permanecer necessariamente atribuída ao magistrado. A atividade jurisdicional envolve a interpretação de normas jurídicas e a ponderação de valores constitucionais, tarefas que exigem julgamento humano e não podem ser integralmente delegadas a sistemas automatizados.

Esses requisitos encontram fundamento direto no ordenamento constitucional brasileiro. A cláusula do devido processo legal, prevista no art. 5º, inciso LIV, da Constituição Federal, estabelece que ninguém será privado de sua liberdade ou de seus bens sem o devido processo legal. Essa disposição constitui um dos pilares do Estado de Direito e expressa a exigência de que toda decisão estatal que afete direitos individuais seja produzida por meio de procedimentos jurídicos legítimos, transparentes e controláveis.

No âmbito da atividade jurisdicional, essa garantia se articula com a exigência constitucional de fundamentação das decisões judiciais. O art. 93, inciso IX, da Constituição determina que todas as decisões judiciais devem ser fundamentadas, sob pena de nulidade. A motivação das decisões constitui elemento essencial para assegurar a transparência da atividade jurisdicional e permitir o controle público do exercício da função judicial.

A exigência de fundamentação também desempenha papel central na garantia do contraditório e da ampla defesa. Ao explicitar os fundamentos da decisão, o magistrado permite que as partes compreendam as razões que conduziram ao resultado do julgamento, possibilitando a eventual interposição de recursos e a contestação dos argumentos utilizados.

No plano infraconstitucional, essas exigências encontram desenvolvimento detalhado no Código de Processo Civil de 2015, que estabelece parâmetros rigorosos para a fundamentação das decisões judiciais. O art. 489, §1º, do CPC define hipóteses específicas em que uma decisão não será considerada devidamente fundamentada, incluindo situações em que o magistrado se limita a reproduzir dispositivos legais sem explicitar sua aplicação ao caso concreto ou utiliza conceitos jurídicos indeterminados sem demonstrar sua pertinência para a solução da controvérsia.

Essas disposições evidenciam que a fundamentação das decisões judiciais deve apresentar um nível significativo de densidade argumentativa, permitindo a reconstrução lógica do raciocínio adotado pelo julgador. A decisão judicial não pode consistir em mera declaração de resultado, mas deve explicitar de maneira clara e detalhada os fundamentos jurídicos e fáticos que justificam a conclusão alcançada.

A utilização de sistemas de inteligência artificial no processo judicial não pode afastar essas exigências normativas. Ao contrário, decisões produzidas com apoio de ferramentas tecnológicas devem permanecer plenamente controláveis pelas partes, pelos tribunais superiores e pela sociedade em geral. A incorporação de tecnologias digitais no funcionamento do Poder Judiciário somente será compatível com o Estado de Direito se acompanhada de mecanismos institucionais capazes de garantir transparência, controle e responsabilização.

Nesse sentido, o desenvolvimento do conceito de devido processo legal tecnológico representa uma tentativa de atualizar a teoria processual clássica diante dos desafios introduzidos pela transformação digital da justiça. Ao estabelecer parâmetros para a utilização legítima de sistemas de inteligência artificial no processo judicial, esse marco teórico contribui para assegurar que a inovação tecnológica ocorra de maneira compatível com os princípios fundamentais que estruturam o sistema jurídico democrático.

5 RISCOS TECNOLÓGICOS E GOVERNANÇA DA INTELIGÊNCIA ARTIFICIAL

A incorporação de tecnologias digitais no funcionamento do Poder Judiciário não constitui um fenômeno recente, mas sim o resultado de um processo gradual de modernização institucional que acompanha as transformações tecnológicas mais amplas da sociedade contemporânea. Desde o final do século XX, tribunais em diversas partes do mundo passaram a investir na digitalização de procedimentos administrativos e judiciais, com o objetivo de ampliar a eficiência da prestação jurisdicional, reduzir custos operacionais e facilitar o acesso à justiça.

No Brasil, esse movimento ganhou maior intensidade a partir da implementação do processo judicial eletrônico (PJe), que representou um marco relevante na transformação digital do sistema de justiça. A digitalização dos autos processuais permitiu a substituição gradual dos processos físicos por sistemas informatizados de tramitação eletrônica, possibilitando a realização de atos processuais por meio de plataformas digitais. Essa mudança alterou profundamente a dinâmica de funcionamento dos tribunais, permitindo maior celeridade na tramitação processual, maior transparência institucional e ampliação do acesso remoto aos autos por advogados, magistrados e partes.

A implantação do processo judicial eletrônico também criou as bases tecnológicas necessárias para a adoção de ferramentas computacionais mais avançadas no âmbito do sistema de justiça. A digitalização massiva de processos e documentos judiciais gerou grandes bases de dados estruturadas, que passaram a possibilitar a utilização de técnicas de análise de dados e inteligência artificial para o apoio à atividade jurisdicional.

Nesse contexto, o Poder Judiciário brasileiro passou a desenvolver e incorporar progressivamente sistemas baseados em inteligência artificial destinados à otimização de diferentes etapas do fluxo processual. Essas ferramentas são utilizadas principalmente para atividades como triagem de processos, identificação de precedentes relevantes, classificação automática de documentos e análise preliminar de admissibilidade recursal.

Diversas iniciativas institucionais têm sido implementadas com o objetivo de explorar o potencial dessas tecnologias no aprimoramento da administração da justiça. Entre os exemplos mais relevantes destacam-se sistemas desenvolvidos no âmbito do Conselho Nacional de Justiça e de tribunais superiores, que buscam utilizar técnicas de aprendizado de máquina para auxiliar na gestão do elevado volume de processos que caracteriza o sistema judicial brasileiro.

Um dos projetos mais relevantes nesse contexto é a plataforma SINAPSES, desenvolvida pelo Conselho Nacional de Justiça em parceria com diversos tribunais brasileiros. O sistema consiste em uma infraestrutura tecnológica destinada ao desenvolvimento, treinamento e compartilhamento de modelos de inteligência artificial voltados ao apoio à atividade jurisdicional. A plataforma permite que diferentes tribunais desenvolvam e utilizem modelos de aprendizado de máquina treinados em bases de dados judiciais, promovendo a padronização e o compartilhamento de soluções tecnológicas no âmbito do Poder Judiciário.

Outra iniciativa relevante é o sistema PEDRO, utilizado para a identificação automática de padrões decisórios e precedentes judiciais. Por meio da análise de grandes volumes de decisões judiciais, o sistema busca identificar similaridades entre casos e auxiliar magistrados na localização de precedentes relevantes para a solução de determinadas controvérsias jurídicas. Essa funcionalidade pode contribuir para o fortalecimento da coerência e da uniformidade da jurisprudência, aspectos considerados essenciais para a segurança jurídica e para a previsibilidade das decisões judiciais.

Também merece destaque o sistema LOGOS, desenvolvido no âmbito do Superior Tribunal de Justiça com o objetivo de auxiliar na análise de admissibilidade recursal. A ferramenta utiliza técnicas de processamento de linguagem natural para examinar peças processuais e identificar elementos relevantes para a avaliação preliminar dos recursos submetidos à apreciação da Corte. Em um contexto marcado por elevado volume de recursos, sistemas dessa natureza podem contribuir significativamente para a racionalização do fluxo processual e para a otimização do trabalho jurisdicional.

Essas iniciativas evidenciam o crescente interesse institucional na utilização de tecnologias baseadas em inteligência artificial para aprimorar a eficiência administrativa e a capacidade operacional do sistema de justiça. O Judiciário brasileiro enfrenta desafios estruturais relacionados ao elevado número de processos em tramitação e à necessidade de garantir maior celeridade na prestação jurisdicional. Nesse cenário, ferramentas tecnológicas capazes de auxiliar na organização e análise de grandes volumes de dados processuais apresentam potencial significativo para contribuir com a racionalização das atividades judiciais.

Entretanto, embora tais tecnologias ofereçam oportunidades relevantes de inovação institucional, sua incorporação no funcionamento do Poder Judiciário também suscita importantes questionamentos jurídicos e institucionais. A utilização de sistemas algorítmicos em atividades relacionadas ao processo decisório exige uma reflexão cuidadosa sobre os limites jurídicos e constitucionais da automação no âmbito da atividade jurisdicional.

Vale e Piva destacam que a utilização de sistemas de inteligência artificial no sistema de justiça deve ser conduzida com cautela, uma vez que decisões judiciais produzidas com apoio de ferramentas algorítmicas permanecem sujeitas aos mesmos requisitos de legitimidade democrática que caracterizam as decisões judiciais tradicionais. A atividade jurisdicional constitui uma função estatal essencial, cuja legitimidade depende da observância rigorosa das garantias fundamentais do processo e da possibilidade de controle público das decisões proferidas.

Nesse sentido, a utilização de tecnologias baseadas em inteligência artificial não pode resultar na substituição do julgamento humano nem na redução dos padrões de fundamentação exigidos pelo ordenamento jurídico. Ainda que sistemas computacionais possam auxiliar na análise de informações e na identificação de padrões decisórios, a responsabilidade final pela decisão judicial permanece necessariamente atribuída ao magistrado.

Além disso, a utilização de sistemas algorítmicos no processo judicial levanta questões relevantes relacionadas à transparência e à explicabilidade dos critérios utilizados na produção das decisões. Muitos sistemas de inteligência artificial operam por meio de modelos computacionais complexos cujos mecanismos internos de funcionamento não são facilmente compreendidos, fenômeno frequentemente descrito na literatura como opacidade algorítmica.

A opacidade dos sistemas algorítmicos pode comprometer a capacidade das partes e da sociedade de compreender os fundamentos das decisões judiciais, o que representa um risco significativo para a preservação do devido processo legal. A exigência constitucional de fundamentação das decisões judiciais pressupõe que os motivos que conduzem à conclusão decisória sejam claramente expostos e passíveis de contestação pelas partes.

Diante dessas preocupações, a literatura jurídica recente tem enfatizado a necessidade de desenvolver modelos institucionais capazes de conciliar inovação tecnológica com preservação das garantias fundamentais do processo. A utilização de ferramentas de inteligência artificial no sistema de justiça deve ser orientada por princípios de transparência, supervisão humana e controle jurídico, assegurando que tais tecnologias atuem como instrumentos de apoio à atividade jurisdicional, e não como substitutos da decisão judicial humana.

Nesse sentido, a transformação digital do Poder Judiciário representa um processo complexo que envolve não apenas a adoção de novas tecnologias, mas também a construção de marcos normativos e institucionais capazes de orientar sua utilização de maneira compatível com os princípios fundamentais do Estado de Direito.

6 REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL

O avanço acelerado das tecnologias de inteligência artificial tem provocado uma crescente preocupação por parte de governos, organizações internacionais e instituições acadêmicas quanto à necessidade de estabelecer marcos normativos capazes de orientar o desenvolvimento e a utilização dessas ferramentas. A expansão de sistemas algorítmicos em setores sensíveis da vida social — como segurança pública, saúde, educação, mercado financeiro e administração da justiça — evidencia a necessidade de construção de estruturas regulatórias destinadas a prevenir riscos, garantir a proteção de direitos fundamentais e assegurar a governança responsável dessas tecnologias.

Nos últimos anos, diversos países têm adotado iniciativas legislativas e regulatórias voltadas à disciplina jurídica da inteligência artificial. Um dos exemplos mais relevantes desse movimento é o Regulamento Europeu de Inteligência Artificial (AI Act), aprovado pela União Europeia, que estabelece um modelo regulatório baseado na classificação de sistemas de inteligência artificial segundo diferentes níveis de risco. Esse modelo tem influenciado significativamente os debates regulatórios em diversas jurisdições, inclusive no contexto latino-americano.

No Brasil, a discussão sobre a regulação da inteligência artificial ganhou maior relevância institucional a partir da formulação de iniciativas legislativas destinadas a estabelecer princípios e diretrizes para o desenvolvimento e utilização dessas tecnologias. Entre essas iniciativas destaca-se o Projeto de Lei nº 2338/2023, atualmente em tramitação no Congresso Nacional, que busca instituir um marco regulatório geral para a inteligência artificial no país.

O projeto representa uma das principais tentativas de construção de um modelo normativo voltado à governança da inteligência artificial no ordenamento jurídico brasileiro. Inspirado em parte por experiências regulatórias internacionais, o texto propõe um conjunto de princípios, diretrizes e mecanismos institucionais destinados a orientar o desenvolvimento, a implementação e a utilização de sistemas de inteligência artificial em diferentes setores da sociedade.

Um dos aspectos centrais da proposta legislativa consiste na adoção de uma abordagem regulatória baseada em risco. De acordo com esse modelo, os sistemas de inteligência artificial são classificados segundo o grau de risco que podem representar para direitos fundamentais, para a segurança pública ou para o funcionamento de instituições democráticas. Essa metodologia busca evitar tanto a ausência de regulação quanto a imposição de restrições excessivas que possam comprometer o desenvolvimento tecnológico.

Sob essa perspectiva, sistemas considerados de baixo risco estariam sujeitos a obrigações regulatórias mais leves, enquanto sistemas classificados como alto risco seriam submetidos a requisitos mais rigorosos de transparência, supervisão e responsabilização. Essa lógica regulatória reconhece que os impactos sociais da inteligência artificial podem variar significativamente dependendo do contexto em que tais tecnologias são utilizadas.

A proposta legislativa brasileira também estabelece um conjunto de princípios orientadores destinados a estruturar o desenvolvimento e a utilização responsável de sistemas de inteligência artificial. Entre esses princípios destacam-se especialmente os valores da transparência, da responsabilização, da supervisão humana, da prevenção de discriminação algorítmica e da proteção de direitos fundamentais.

O princípio da transparência assume papel central na governança da inteligência artificial, uma vez que busca assegurar que os sistemas algorítmicos utilizados em ambientes institucionais relevantes sejam suficientemente compreensíveis e acessíveis para permitir o controle social e institucional de seu funcionamento. A transparência envolve não apenas a divulgação de informações sobre a existência de sistemas algorítmicos, mas também a possibilidade de compreender, ao menos em termos gerais, os critérios que orientam suas decisões ou recomendações.

O princípio da responsabilização estabelece que os desenvolvedores, operadores e usuários de sistemas de inteligência artificial devem responder pelos impactos produzidos por essas tecnologias. Esse princípio busca evitar situações em que decisões automatizadas produzam efeitos relevantes sobre indivíduos ou grupos sociais sem que seja possível identificar os responsáveis pela implementação ou utilização dos sistemas envolvidos.

Outro elemento fundamental da proposta regulatória consiste na exigência de supervisão humana sobre sistemas de inteligência artificial utilizados em contextos decisórios relevantes. Esse princípio reflete a compreensão de que determinadas decisões — especialmente aquelas que afetam direitos fundamentais — não podem ser integralmente delegadas a sistemas automatizados, devendo permanecer sujeitas ao controle e à revisão por agentes humanos qualificados.

A proposta legislativa também dedica especial atenção à prevenção de discriminação algorítmica. Sistemas de inteligência artificial treinados a partir de grandes bases de dados podem reproduzir ou amplificar vieses existentes nos dados utilizados em seu treinamento, resultando em decisões que afetam de maneira desigual determinados grupos sociais. A regulação busca, portanto, estabelecer mecanismos capazes de identificar e mitigar esses riscos.

Por fim, destaca-se o princípio da proteção de direitos fundamentais, que constitui o eixo estruturante da proposta normativa. A utilização de sistemas de inteligência artificial deve ocorrer de maneira compatível com os valores constitucionais que orientam o ordenamento jurídico brasileiro, especialmente aqueles relacionados à dignidade da pessoa humana, à igualdade, à liberdade e ao devido processo legal.

Esses princípios refletem uma preocupação crescente com a construção de modelos de governança ética e jurídica da inteligência artificial, capazes de equilibrar os benefícios da inovação tecnológica com a necessidade de preservar valores fundamentais do Estado democrático de direito.

No contexto específico do sistema de justiça, a aplicação dessas diretrizes assume importância ainda maior. A utilização de sistemas de inteligência artificial no processo judicial exige especial atenção à preservação das garantias processuais fundamentais, uma vez que decisões jurisdicionais possuem impacto direto sobre direitos individuais e coletivos.

A regulação da inteligência artificial no Brasil, portanto, representa um passo relevante na construção de um modelo institucional capaz de orientar a utilização dessas tecnologias de maneira responsável e juridicamente adequada.

CONCLUSÃO

A incorporação de tecnologias baseadas em inteligência artificial no funcionamento das instituições públicas constitui um dos fenômenos mais significativos da transformação digital contemporânea. No âmbito do sistema de justiça, essas tecnologias apresentam potencial considerável para contribuir com a racionalização da atividade jurisdicional, permitindo a análise mais eficiente de grandes volumes de dados processuais e auxiliando na organização de fluxos decisórios complexos.

Ferramentas baseadas em inteligência artificial podem desempenhar papel relevante na triagem de processos, na identificação de precedentes relevantes e na análise preliminar de questões processuais, contribuindo para a redução do tempo de tramitação de processos e para a otimização do trabalho jurisdicional. Em um sistema judicial caracterizado por elevado volume de demandas, tais tecnologias podem representar instrumentos importantes para o aprimoramento da eficiência institucional.

Entretanto, a utilização de sistemas algorítmicos no processo judicial também suscita desafios jurídicos e institucionais relevantes. A atividade jurisdicional constitui uma função essencial do Estado, cuja legitimidade depende da observância rigorosa das garantias fundamentais do processo e da possibilidade de controle público das decisões judiciais.

A introdução de sistemas computacionais no processo decisório judicial exige, portanto, uma reflexão cuidadosa sobre os limites e condições de sua utilização. A automação de determinadas etapas do processo não pode resultar na erosão de princípios fundamentais como o contraditório, a ampla defesa, a motivação das decisões judiciais e o controle recursal.

Nesse contexto, a construção de um modelo teórico e normativo de devido processo legal tecnológico revela-se essencial para assegurar que a transformação digital da justiça ocorra de maneira compatível com os valores constitucionais que estruturam o Estado de Direito. Esse modelo busca adaptar as garantias processuais tradicionais às novas dinâmicas introduzidas pela inteligência artificial, estabelecendo parâmetros para a utilização legítima dessas tecnologias no sistema de justiça.

Entre os elementos centrais desse modelo destacam-se os requisitos de transparência, explicabilidade, auditabilidade, contestabilidade e supervisão humana sobre decisões produzidas com apoio de sistemas algorítmicos. Esses princípios permitem assegurar que a utilização de inteligência artificial no processo judicial permaneça compatível com as exigências de fundamentação, controle e legitimidade democrática que caracterizam a atividade jurisdicional.

A evolução das tecnologias de inteligência artificial tende a ampliar progressivamente sua presença nas instituições públicas e privadas. Diante desse cenário, torna-se fundamental que o desenvolvimento dessas ferramentas seja acompanhado por marcos normativos e institucionais capazes de orientar sua utilização de maneira responsável e juridicamente adequada.

A construção de um modelo de justiça digital comprometido com a proteção de direitos fundamentais constitui um dos principais desafios do direito contemporâneo. O desenvolvimento de estruturas regulatórias e teóricas capazes de compatibilizar inovação tecnológica e garantias processuais representa condição indispensável para assegurar que a transformação digital da justiça contribua efetivamente para o fortalecimento do Estado democrático de direito.

REFERÊNCIAS

Parentoni, Leonardo. Artificial Intelligence. Springer, 2020.

Parentoni, Leonardo. What Should We Reasonably Expect from Artificial Intelligence? Il Diritto degli Affari, 2022.

Bonat, Débora; Vale, Luís Manoel Borges do; Pereira, João Sérgio dos Santos Soares. Inteligência artificial generativa e a fundamentação da decisão judicial.

Vale, Luís Manoel Borges do; Piva, Sílvia Helena Gomes. Decisões proferidas com apoio de inteligência artificial e o devido processo legal tecnológico.

Santos, Adson Romário Rodrigues; Leitão, André Studart; Vale, Luís Manoel Borges do. Direito, tecnologia e risco.


[1] Procurador Federal vinculado à Advocacia-Geral da União (AGU), com atuação na Procuradoria Regional Federal da 1ª Região (PRF1). Professor de Direito no Estratégia Concursos, com experiência na preparação para carreiras jurídicas. Pós-graduando em Advocacia Pública, com foco em gestão pública e aprimoramento institucional. Desenvolve pesquisas nas áreas de Direito Ambiental, Direito Constitucional e políticas públicas, com ênfase em judicialização de direitos fundamentais, litigância climática e governança ambiental. Autor de materiais didáticos e conteúdos jurídicos voltados à formação de candidatos em concursos públicos.