A INTELIGÊNCIA ARTIFICIAL NO MUNDO DO DIREITO: PERSPECTIVAS, DESAFIOS E LIMITES ÉTICO-JURÍDICOS
28 de julho de 2025ARTIFICIAL INTELLIGENCE IN THE LEGAL WORLD: PERSPECTIVES, CHALLENGES, AND ETHICO-LEGAL LIMITS
Artigo submetido em 19 de julho de 2025
Artigo aprovado em 24 de julho de 2025
Artigo publicado em 28 de julho de 2025
| Cognitio Juris Volume 15 – Número 58 – 2025 ISSN 2236-3009 |
.
| Autor(es): Ana Paula Prado[1] |
.
Resumo: A aplicação da inteligência artificial (IA) no âmbito jurídico tem transformado significativamente a forma como o Direito é compreendido, exercido e aplicado. Este artigo analisa o impacto da IA no mundo jurídico, especialmente no que tange à automação de decisões judiciais, à análise preditiva e à atuação dos juristas. A pesquisa busca compreender os benefícios e os riscos da inserção dessas tecnologias no sistema de justiça, confrontando-os com os princípios constitucionais, o devido processo legal e os direitos fundamentais. São utilizados aportes doutrinários nacionais e internacionais, além de marcos regulatórios em discussão. Conclui-se pela necessidade de uma regulamentação ética e jurídica da IA no Direito, que preserve a dignidade da pessoa humana e assegure o controle humano significativo sobre decisões automatizadas.
Palavras-chave: Inteligência Artificial; Direito; Ética Jurídica; Automação Judicial; Direitos Fundamentais.
Abstract: The application of Artificial Intelligence (AI) in the legal field has significantly transformed the way Law is understood, practiced, and applied. This article analyzes the impact of AI on the legal world, particularly concerning the automation of judicial decisions, predictive analysis, and the role of legal professionals. The research aims to understand the benefits and risks of incorporating such technologies into the justice system, comparing them with constitutional principles, due process of law, and fundamental rights. National and international doctrinal contributions are used, as well as ongoing regulatory frameworks. The study concludes that there is a need for ethical and legal regulation of AI in Law, in order to preserve human dignity and ensure meaningful human control over automated decisions.
Keywords: Artificial Intelligence; Law; Legal Ethics; Judicial Automation; Fundamental Rights.
1. Introdução
A ascensão da inteligência artificial (IA) representa um dos maiores desafios e oportunidades para o Direito Contemporâneo. Ferramentas de automação, aprendizado de máquina e processamento de linguagem natural estão sendo gradativamente incorporadas ao Judiciário, à advocacia e à gestão pública. No entanto, o uso indiscriminado dessas tecnologias impõe reflexões sobre limites éticos, a transparência algorítmica e a preservação dos direitos fundamentais. Este artigo visa examinar criticamente as implicações da IA no sistema jurídico, considerando a tensão entre eficiência tecnológica e garantias processuais.
2. Fundamentos Conceituais da Inteligência Artificial no Direito
A inteligência artificial pode ser compreendida como a simulação de processos cognitivos humanos por sistemas computacionais, especialmente no que se refere à aprendizagem, raciocínio e tomada de decisão (Russell e Norvig, 2021). No campo jurídico, a IA se manifesta em diversas aplicações: análise preditiva de sentenças, jurimetria, triagem de processos, chatbots jurídicos e robôs processuais.
No contexto jurídico, a IA pode ser definida como o conjunto de sistemas computacionais que, a partir do processamento de grandes volumes de dados, são capazes de oferecer respostas automatizadas ou predições com base em padrões previamente identificados. Conforme explica Lemos (2020), a aplicação da IA ao Direito consiste em uma tentativa de “automatizar atividades cognitivas que tradicionalmente pertencem aos operadores jurídicos, como interpretação normativa, classificação de fatos e aplicação do direito ao caso concreto”.
A doutrina brasileira tem se debruçado sobre as implicações dessa transformação. Marinoni (2021) aponta que a IA, ao ser empregada na análise de precedentes judiciais e na predição de resultados de litígios, desloca o centro tradicional da decisão jurídica do juiz para o sistema algorítmico, o que impõe uma releitura das garantias constitucionais do devido processo legal, da motivação das decisões e da imparcialidade.
Segundo Luciano Floridi (2019), a IA levanta o desafio do “algoritmo opaco”, em que decisões tomadas por sistemas inteligentes carecem de explicabilidade, ameaçando princípios como o da publicidade e da motivação das decisões judiciais. Já para Danilo Doneda, há uma “tensão inevitável entre automação e a responsabilidade jurídica”, o que exige uma abordagem normativa robusta.
A compreensão dos fundamentos conceituais da Inteligência Artificial (IA) no campo jurídico exige uma abordagem interdisciplinar, que dialogue com a ciência da computação, a filosofia da linguagem, a lógica formal e os princípios do Direito. A expressão “inteligência artificial” foi cunhada por John McCarthy em 1956, durante a conferência de Dartmouth, e desde então evoluiu para abarcar diversas tecnologias capazes de simular capacidades cognitivas humanas, como raciocínio, aprendizado, percepção e tomada de decisão (RUSSELL; NORVIG, 2021).
Além disso, a IA pode operar sob diferentes paradigmas. O paradigma simbólico (ou “IA simbólica”) baseia-se em regras lógicas e estruturas formais, aproximando-se da dogmática jurídica tradicional. Já a IA conexionista, baseada em redes neurais artificiais, utiliza grandes bancos de dados e técnicas de aprendizado de máquina (machine learning) para identificar padrões e inferir soluções, mesmo sem necessariamente explicar os fundamentos das decisões que propõe. Esse último ponto levanta sérias preocupações quanto à chamada “caixa-preta algorítmica” (PASQUALE, 2015), isto é, a opacidade nos critérios utilizados pelos sistemas inteligentes.
É importante destacar que a inteligência artificial, por si só, não possui “consciência jurídica”, nem é capaz de captar a complexidade dos valores normativos envolvidos em cada caso. Nesse sentido, Sartor (2012) salienta que o uso da IA no Direito deve ser instrumental, voltado à ampliação da capacidade analítica e da eficiência do sistema de justiça, mas sem substituir o juízo humano, essencial à interpretação e ponderação jurídica.
Por fim, os fundamentos conceituais da IA no Direito não podem ser dissociados da análise crítica de seus limites e riscos. É necessário refletir sobre a governança algorítmica, os vieses incorporados nos dados e a necessidade de transparência, auditabilidade e controle democrático sobre essas ferramentas. Conforme propõe Calo (2015), o desafio contemporâneo está em construir uma IA jurídica que seja não apenas eficiente, mas também legítima e alinhada com os direitos fundamentais.
3. Aplicações da Inteligência Artificial no Sistema de Justiça
O avanço da inteligência artificial (IA) no sistema de justiça representa uma das transformações mais significativas na forma como o Direito é interpretado, aplicado e administrado. O uso de sistemas computacionais inteligentes tem promovido não apenas maior eficiência na tramitação processual, mas também uma redefinição das atividades jurisdicionais e administrativas dos tribunais.
No Brasil, destacam-se diversas iniciativas capitaneadas pelo Conselho Nacional de Justiça (CNJ), que criou a Plataforma Sinapses, ambiente colaborativo que hospeda e compartilha modelos de IA treinados pelos tribunais. Conforme dados do próprio CNJ (2024), já existem mais de 100 sistemas de IA em uso no Judiciário brasileiro, com aplicações que vão desde a triagem e classificação processual até a identificação de demandas repetitivas.
Entre os principais exemplos está o Victor, sistema do Supremo Tribunal Federal (STF), utilizado para triagem automática de repercussão geral. O algoritmo é treinado com milhares de decisões e tem a função de identificar padrões e precedentes relevantes. Já o Athos, do Superior Tribunal de Justiça (STJ), organiza e cataloga jurisprudência de forma automatizada, auxiliando ministros e servidores na construção de ementas e votos.
Além disso, o uso de IA tem sido incorporado em varas cíveis, fazendárias e juizados especiais, principalmente por meio de robôs judiciais, que realizam tarefas como:
- Identificação de processos semelhantes (clustering);
- Preenchimento de minutas de despacho e sentença;
- Localização de devedores em execuções fiscais;
- Controle de prazos e movimentações automáticas no sistema eletrônico.
Conforme ensina Daniel Becker (2023), a IA no Judiciário deve ser compreendida sob dois enfoques principais: o suporte à decisão judicial e a automatização de atos processuais administrativos. No primeiro caso, os sistemas atuam como auxiliares da função jurisdicional, oferecendo subsídios informacionais ao julgador; no segundo, substituem tarefas burocráticas, permitindo maior celeridade e economia de recursos.
Em paralelo, surgem preocupações relevantes no plano jurídico e ético. A utilização de sistemas preditivos – como os que estimam o risco de reincidência criminal ou a probabilidade de concessão de um benefício judicial – tem sido alvo de críticas por reproduzirem vieses históricos, especialmente nos Estados Unidos, com o uso do software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Pesquisas empíricas demonstraram que algoritmos desse tipo podem discriminar grupos racializados, ao se basearem em dados enviesados.
No Brasil, a Resolução nº 332/2020 do CNJ estabeleceu as Diretrizes Éticas para o Uso de Inteligência Artificial no Poder Judiciário, ressaltando a importância de princípios como transparência, explicabilidade, responsabilização e supervisão humana. Nesse sentido, Marçal Justen Filho (2021) observa que a IA só poderá ser legitimamente incorporada ao processo jurisdicional se respeitar as garantias constitucionais do contraditório, da ampla defesa e da motivação das decisões.
Internacionalmente, o uso de IA no Judiciário também avança. Na Estônia, foi criado um sistema experimental de “robô-juiz” para pequenas causas de até € 7.000, com supervisão posterior de um juiz humano. Na China, tribunais digitais utilizam sistemas de IA para auxiliar na instrução de processos eletrônicos e no acompanhamento de execuções judiciais. Tais práticas têm motivado o debate sobre os limites da automação na função jurisdicional, especialmente no que tange à legitimação democrática do julgador.
É imperioso ressaltar que a IA não substitui a hermenêutica jurídica, tampouco pode exercer juízo de ponderação de princípios – tarefa que exige sensibilidade, argumentação e compreensão axiológica. Como adverte Giovanni Sartor (2012), os sistemas computacionais são eficazes para representar estruturas normativas e correlacionar casos, mas ainda são incapazes de compreender contextos valorativos de maneira satisfatória.
Assim, as aplicações da inteligência artificial no sistema de justiça devem ser vistas como ferramentas de apoio e eficiência, sem abalar os pilares do Estado Democrático de Direito. O desafio contemporâneo consiste em equilibrar inovação tecnológica e garantias fundamentais, construindo um Judiciário mais acessível, transparente e humano, ainda que tecnologicamente assistido.
4. Desafios Ético-Jurídicos: Devido Processo, Discriminação Algorítmica e Transparência
A incorporação da inteligência artificial (IA) no sistema jurídico suscita uma série de desafios ético-jurídicos que colocam em tensão princípios estruturantes do Estado Democrático de Direito, especialmente os relacionados ao devido processo legal, à igualdade material e à transparência administrativa. A complexidade desses desafios decorre, em grande parte, da opacidade técnica dos algoritmos, do caráter massivo dos dados que os alimentam e da dificuldade de garantir accountability em decisões automatizadas.
4.1 Devido Processo Legal e Garantias Fundamentais
O devido processo legal, consagrado no art. 5º, incisos LIV e LV da Constituição Federal, assegura não apenas o direito à ampla defesa e ao contraditório, mas também a exigência de fundamentação das decisões judiciais (art. 93, IX, CF). A adoção de sistemas de IA em atividades jurisdicionais e administrativas pode comprometer essas garantias quando automatiza etapas decisórias sem controle humano direto ou sem fundamentação inteligível.
Como alerta Marçal Justen Filho (2021), “a decisão algorítmica é, por natureza, avessa à fundamentação jurídica tradicional, substituindo razões normativas por estatísticas e padrões computacionais.” Essa substituição pode colidir com o dever constitucional de motivação das decisões, essencial à legitimidade da jurisdição. Além disso, a ausência de acesso ao funcionamento dos algoritmos utilizados pelo Estado representa violação ao princípio da publicidade dos atos administrativos.
A Resolução CNJ nº 332/2020 estabelece que o uso de IA deve respeitar os direitos fundamentais e manter a supervisão humana significativa. Isso significa que nenhuma decisão com potencial de afetar direitos deve ser tomada exclusivamente por sistemas automatizados, sem possibilidade de revisão humana – princípio este igualmente reconhecido no art. 22 do Regulamento Europeu de Proteção de Dados (GDPR).
4.2 Discriminação Algorítmica e Reforço de Vieses
Um dos aspectos mais críticos do uso da IA no Direito é a discriminação algorítmica. Algoritmos treinados com bases de dados historicamente enviesadas tendem a reproduzir e até intensificar desigualdades sociais e raciais. Casos emblemáticos como o do software COMPAS, utilizado nos EUA para prever reincidência criminal, evidenciaram que pessoas negras recebiam avaliações de risco desproporcionalmente mais altas do que pessoas brancas, ainda que com histórico semelhante.
No Brasil, embora ainda incipiente, esse risco é real em contextos como concessão de benefícios judiciais, identificação de fraudes e perfilamento de litigantes habituais. Como destaca Frank Pasquale (2015), “os algoritmos não são neutros; eles refletem as escolhas de seus programadores e os dados que os alimentam.”
A discriminação algorítmica é particularmente problemática por sua invisibilidade. Como os critérios de decisão estão “embutidos” no código, muitas vezes não são percebidos pelos próprios operadores do sistema, dificultando a impugnação judicial e o exercício pleno do contraditório. Daí a importância da auditoria algorítmica, da explainability (explicabilidade) e do design ético e inclusivo dos sistemas utilizados no campo jurídico.
4.3 Transparência e Caixa-Preta Algorítmica
Outro desafio fundamental é o da transparência algorítmica. Muitos sistemas baseados em IA, especialmente os que utilizam machine learning e deep learning, operam como verdadeiras “caixas-pretas” (black boxes), tornando difícil – senão impossível – compreender os critérios que levaram à emissão de determinado resultado.
Esse problema compromete diretamente a responsabilização (accountability) e o direito à explicação. O cidadão que se vê afetado por uma decisão automatizada tem o direito de saber como, por que e com base em quais dados essa decisão foi tomada. No campo jurídico, esse direito é ainda mais relevante, pois se conecta com a própria validade da decisão judicial ou administrativa.
A Carta Europeia de Ética da Inteligência Artificial no Judiciário (2018), elaborada pela CEPEJ (Conselho da Europa), estabelece como princípio essencial a transparência dos sistemas algorítmicos, exigindo que sejam passíveis de auditoria e explicação clara aos cidadãos e operadores do Direito. No Brasil, a Resolução CNJ 332/2020 também incorpora essa diretriz, mas sua concretização ainda enfrenta dificuldades técnicas e institucionais.
4.4 Responsabilidade Civil e Administrativa
A ausência de transparência e a possibilidade de vieses levantam questões sobre quem responde por danos causados por decisões automatizadas. A responsabilidade pode recair:
- Sobre o ente público que contratou ou utilizou o sistema;
- Sobre o desenvolvedor do software;
- Sobre o operador que deveria supervisionar sua execução.
Como aponta Fernanda Frizzo Bragato (2022), “a inteligência artificial desafia a matriz tradicional de imputação de responsabilidade civil, exigindo novos modelos que considerem a causalidade difusa e o risco tecnológico.”
A responsabilização por decisões algorítmicas deverá observar princípios como dever de vigilância, previsibilidade e controle técnico, além do dever de oferecer alternativas humanas à decisão automática.
4.5 Diretrizes para um Uso Ético e Constitucional da IA no Direito
Diante desses riscos, diversas diretrizes vêm sendo propostas para assegurar um uso ético, constitucional e democrático da IA no Direito, entre as quais se destacam:
- Supervisão humana significativa (human-in-the-loop);
- Explicabilidade e auditabilidade dos sistemas;
- Não discriminação algorítmica;
- Impact assessment prévio (avaliação de riscos);
- Capacitação dos operadores jurídicos;
- Governança algorítmica transparente e participativa.
Tais diretrizes reforçam que o uso da IA deve estar subordinado aos direitos fundamentais, e não o contrário. A tecnologia, por mais avançada que seja, não pode substituir a prudência, a empatia e a sensibilidade ética que são inerentes ao julgamento humano no campo jurídico.
5. A Centralidade do Controle Humano Significativo
A noção de “controle humano significativo” (do inglês meaningful human control) constitui uma das balizas fundamentais no debate contemporâneo sobre o uso ético e juridicamente aceitável da inteligência artificial (IA), especialmente quando aplicada a processos decisórios que afetam direitos fundamentais. No campo do Direito e da Justiça, essa exigência ganha contornos ainda mais relevantes, pois envolve diretamente o exercício da jurisdição, a legalidade administrativa e o respeito aos princípios constitucionais do devido processo legal, da dignidade da pessoa humana e da inafastabilidade da tutela jurisdicional.
5.1 Fundamentos jurídicos do controle humano
A Constituição Federal de 1988 estabelece que “ninguém será privado da liberdade ou de seus bens sem o devido processo legal” (art. 5º, LIV), assegurando também o contraditório e a ampla defesa (art. 5º, LV) e a fundamentação das decisões judiciais (art. 93, IX). Esses dispositivos evidenciam que toda decisão que interfira na esfera jurídica de um indivíduo deve ser compreensível, revisável e ancorada em razões jurídicas acessíveis.
Nesse sentido, a adoção de sistemas de IA no Judiciário ou na Administração Pública exige que haja intervenção humana ativa e consciente no processo decisório, garantindo que os algoritmos atuem como instrumentos auxiliares e não como substitutos da racionalidade jurídica e da prudência judicial. Como adverte Marçal Justen Filho (2021), “a inteligência artificial deve ser uma ferramenta de apoio e não um oráculo imune ao controle democrático.”
5.2 O papel do humano como garantidor da legitimidade democrática
O controle humano significativo não se resume à mera supervisão técnica ou ao clique protocolar de um operador, mas exige uma participação qualificada, crítica e responsável do agente público. Isso significa que o ser humano deve ter:
- conhecimento sobre os critérios usados pelo algoritmo;
- capacidade de revisar e contrariar sua decisão;
- autonomia para interromper ou modificar a atuação da IA, sempre que necessário.
Essa perspectiva está alinhada com as diretrizes internacionais, como a Carta Europeia de Ética da Inteligência Artificial no Judiciário (CEPEJ, 2018), que consagra a exigência de supervisão humana como condição para a validade ética da IA. De forma semelhante, o Regulamento Geral de Proteção de Dados da União Europeia (GDPR), em seu artigo 22, assegura ao cidadão o direito de não se submeter a decisões automatizadas sem revisão humana adequada.
5.3 Riscos da ausência de controle humano qualificado
A exclusão ou minimização do papel humano em sistemas de decisão algorítmica pode gerar uma série de riscos jurídicos e sociais, entre os quais:
- Deslegitimação da decisão pública, por falta de motivação ou inteligibilidade;
- Reprodução automatizada de preconceitos, via vieses embutidos nos dados;
- Dificuldade de responsabilização por erros ou danos causados pelo sistema;
- Supressão do contraditório e da ampla defesa, especialmente em decisões administrativas automatizadas;
- Desumanização do Direito, reduzido à lógica estatística e preditiva.
Esses riscos têm sido identificados em diversas experiências internacionais. No caso do software COMPAS nos EUA, o sistema de predição de reincidência criminal operava sem transparência e com forte viés racial, afetando desproporcionalmente minorias étnicas. A ausência de controle humano efetivo impediu que tais distorções fossem percebidas e corrigidas em tempo hábil, o que levou a decisões judiciais marcadas por injustiça algorítmica.
5.4 O controle humano como princípio estruturante da IA jurídica
Para que o uso da IA no Direito seja compatível com os princípios constitucionais e os direitos fundamentais, é necessário que o controle humano significativo seja institucionalizado como princípio estruturante de toda aplicação algorítmica. Isso implica:
- Formação adequada de magistrados, servidores e operadores do Direito sobre o funcionamento dos sistemas;
- Auditorias técnicas periódicas para avaliar a equidade, a precisão e a explicabilidade dos algoritmos;
- Protocolos normativos claros que definam limites, responsabilidades e formas de contestação das decisões automatizadas;
- Mecanismos de governança algorítmica, com participação da sociedade civil e de especialistas interdisciplinares.
Como ensina Giovanni Sartor (2012), “a racionalidade jurídica não pode ser substituída por correlações estatísticas; ela requer argumentação, ponderação de valores e compreensão do contexto.” Assim, o controle humano significativo atua como ponte entre a eficiência algorítmica e a justiça substancial, garantindo que o Direito continue sendo expressão da vontade humana em conformidade com a Constituição.
6. Conclusão
O avanço da inteligência artificial no mundo do Direito é irreversível, mas não pode ocorrer à revelia dos princípios que estruturam o Estado Democrático de Direito. O uso responsável da IA exige regulamentação clara, transparência algorítmica, proteção contra vieses discriminatórios e, sobretudo, preservação da centralidade humana na produção de decisões jurídicas.
Cabe ao legislador, aos tribunais e às instituições acadêmicas estabelecer os marcos éticos e jurídicos para que a IA seja uma aliada da justiça, e não um instrumento de desumanização ou iniquidade. O desafio é garantir que a inovação tecnológica caminhe de mãos dadas com os direitos humanos e os valores constitucionais.
Referências
DONEDA, Danilo. Proteção de dados pessoais: a função e os limites do consentimento. Rio de Janeiro: Forense, 2020.
FARIA, José Eduardo. Direito e tecnologia: novos desafios para a dogmática jurídica. São Paulo: Malheiros, 2020.
FLORIDI, Luciano. The Ethics of Artificial Intelligence. Oxford University Press, 2019.
RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. Pearson, 4ª ed., 2021.
STRECK, Lenio Luiz. O que é isto — decido conforme minha consciência? São Paulo: Saraiva, 2021.
TESSIER, Catherine. Trust in Artificial Intelligence: The Need for Human Oversight. In: AI & Society, 2019.
CALO, Ryan. Robotics and the Lessons of Cyberlaw. California Law Review, v. 103, 2015.
GONÇALVES, Victor. Inteligência Artificial e Direito: fundamentos e aplicações. São Paulo: Revista dos Tribunais, 2022.
LEMOS, Ronaldo. Direito, tecnologia e sociedade. Rio de Janeiro: FGV, 2020.
MARINONI, Luiz Guilherme. Tecnologia, Processo e Constituição. São Paulo: RT, 2021.
PASQUALE, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press, 2015.
RUSSELL, Stuart; NORVIG, Peter. Inteligência Artificial. 4. ed. Rio de Janeiro: Elsevier, 2021.
SARTOR, Giovanni. Legal Reasoning: A Cognitive Approach to the Law. Springer, 2012.
BECKER, Daniel. Inteligência Artificial no Judiciário Brasileiro: entre a eficiência e os direitos fundamentais. São Paulo: Revista dos Tribunais, 2023.
JUSTEN FILHO, Marçal. Processo Administrativo e Inteligência Artificial: desafios e limites. Revista de Direito Administrativo, v. 280, 2021.
SARTOR, Giovanni. Legal Reasoning: A Cognitive Approach to the Law. Springer, 2012.
CNJ. Relatório Justiça em Números 2024. Disponível em: https://www.cnj.jus.br.
PASQUALE, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press, 2015.
RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 4ª ed. Pearson, 2021.
JUSTEN FILHO, Marçal. Processo Administrativo e Inteligência Artificial: desafios e limites. Revista de Direito Administrativo, v. 280, 2021.
PASQUALE, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press, 2015.
BRAGATO, Fernanda Frizzo. Justiça Algorítmica e Direitos Fundamentais. Porto Alegre: Livraria do Advogado, 2022.
CNJ. Resolução nº 332/2020.
CEPEJ. European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment, 2018.
REGULAMENTO (UE) 2016/679 – GDPR. SARTOR, Giovanni. Legal Reasoning: A Cognitive Approach to the Law. Springer, 2012.

