
TRANSFORMAÇÃO DIGITAL NA GESTÃO PÚBLICA: DESAFIOS E RESPONSABILIDADE JURÍDICA NA ERA DOS ALGORITMOS
6 de fevereiro de 2025DIGITAL TRANSFORMATION IN PUBLIC MANAGEMENT: CHALLENGES AND LEGAL RESPONSIBILITY IN THE AGE OF ALGORITHMS
Artigo submetido em 03 de fevereiro de 2025
Artigo aprovado em 05 de fevereiro de 2025
Artigo publicado em 06 de fevereiro de 2025
Cognitio Juris Volume 15 – Número 58 – 2025 ISSN 2236-3009 |
.
.
RESUMO: Este artigo investiga, por meio de uma revisão bibliográfica sistemática, os impactos da IA na gestão pública, analisando as implicações regulatórias, a viabilidade da responsabilização de agentes públicos diante de eventuais danos causados por algoritmos e os desafios para a governança dessas tecnologias. A pesquisa baseou-se em fontes acadêmicas como BDTD, SciELO e Periódicos CAPES, considerando publicações dos últimos 20 anos sobre “Inteligência Artificial e Gestão Pública”. Os resultados apontam para lacunas normativas e a necessidade de diretrizes específicas para limitar a autonomia da IA, bem como definir critérios claros para a responsabilização de gestores públicos. A partir dessa análise, conclui-se que o ordenamento jurídico ainda carece de regulamentação específica sobre o tema, exigindo um debate aprofundado sobre responsabilidade civil, ética algorítmica e os impactos da automação nas políticas públicas.
Palavras-chave: Inteligência Artificial, Gestão Pública, Responsabilidade Jurídica, Algoritmos, Regulamentação.
ABSTRACT: This article investigates, through a systematic literature review, the impacts of AI on public management, analyzing the regulatory implications, the feasibility of holding public agents accountable in the face of possible damage caused by algorithms, and the challenges for the governance of these technologies. The research was based on academic sources such as BDTD, SciELO and CAPES Journals, considering publications from the last 20 years on “Artificial Intelligence and Public Management”. The results point to regulatory gaps and the need for specific guidelines to limit the autonomy of AI, as well as to define clear criteria for the accountability of public managers. From this analysis, it is concluded that the legal system still lacks specific regulation on the subject, requiring an in-depth debate on civil liability, algorithmic ethics, and the impacts of automation on public policies.
Keywords: Artificial Intelligence, Public Management, Legal Liability, Algorithms, Regulation.
1 INTRODUÇÃO
Ao longo da história, a busca por compreender e recriar a inteligência sempre esteve presente na trajetória humana. Desde meados do século XX, avanços científicos vêm aproximando essa ambição da realidade, ainda que de forma gradual. Atualmente, os impactos da Inteligência Artificial nas relações sociais tornaram-se um dos principais desafios do Direito Público, exigindo estudos e esforços para definir parâmetros adequados de regulação e controle.
A inserção da Inteligência Artificial no contexto jurídico não é recente, pois há registros de discussões anteriores à Constituição de 1988. Questões como personificação e responsabilidade dos agentes públicos em atividades mediadas por tecnologia já eram debatidas, mas os avanços recentes tornaram esses desafios ainda mais urgentes e complexos.
A disseminação das tecnologias de aprendizado de máquina, conhecidas como Machine Learning Deep Learning, trouxe novas reflexões sobre autonomia e interação desses sistemas com o ambiente e com os seres humanos. Diante desse cenário, surge a questão central: até que ponto essas inteligências artificiais podem ser reconhecidas juridicamente e quais são as implicações para seus programadores e gestores públicos?
O uso crescente da Inteligência Artificial em diversas áreas, como transporte autônomo, medicina, segurança, investimentos financeiros e atendimento ao público, demonstra sua relevância e impacto na sociedade. No entanto, a expansão dessas tecnologias levanta preocupações sobre responsabilidade e regulamentação adequadas, especialmente quando afetam direitos fundamentais e decisões governamentais.
Diante da ampla influência da Inteligência Artificial em diferentes setores, surgem debates sobre a possibilidade de atribuição de personalidade jurídica a robôs e sistemas inteligentes. Ao mesmo tempo, há forte oposição a essa perspectiva, o que resulta em um cenário de divergência doutrinária e incertezas jurídicas. Esse desalinhamento torna a regulamentação ainda mais desafiadora, uma vez que muitas discussões carecem de embasamento técnico aprofundado.
Nesse contexto, a presente investigação busca analisar as consequências jurídicas dos atos praticados por sistemas de Inteligência Artificial no âmbito da administração pública. O objetivo é compreender as implicações da responsabilidade civil nesses casos, identificar lacunas normativas e avaliar o papel do Estado na regulamentação do tema.
Considerando a abordagem adotada, este estudo está estruturado da seguinte forma: a metodologia científica utilizada é apresentada na próxima seção; em seguida, são discutidos os principais resultados e suas implicações jurídicas; por fim, são expostas as conclusões obtidas com a pesquisa.
3 O CONCEITO DE GESTÃO E SUAS PERSPECTIVAS
Na literatura, Pascoal (2006, p.12) aponta que não há uma delimitação clara sobre a natureza do termo Gestão, sendo esta geralmente definida por meio das atividades desenvolvidas ou das competências exercidas dentro de um contexto específico. Para o autor, gestão é um desafio objetivo que busca articular as estratégias institucionais de longo e médio prazo com ações cotidianas, promovendo alinhamento aos objetivos finais de uma organização.
Thompson (2008) amplia essa concepção, definindo Gestão como um conjunto de processos administrativos e teórico-práticos fundamentados em quatro pilares: desenvolvimento e garantia de ações estratégicas; estabelecimento de políticas e procedimentos alinhados às diretrizes organizacionais; implementação de processos de melhoria contínua; e a criação de sistemas de incentivo e recompensas, sejam financeiros ou não. Para o autor, gerir é um processo dinâmico que envolve planejamento estratégico e acompanhamento de resultados.
Porto (1998) apresenta uma visão que associa Gestão a um conjunto de mecanismos que asseguram o funcionamento das instituições e o alinhamento entre seus stakeholders. Ele enfatiza que gerir é um ato político-institucional que delimita, define e decide ações a partir de conhecimento empírico e cognitivo. Essa concepção dialoga com a abordagem de Reed (1989), que compreende Gestão como um processo político-administrativo estruturado em três dimensões: técnica, política e crítica.
Na perspectiva técnica, Reed (1989) descreve a Gestão como um instrumento racional e tecnológico, essencial para alcançar resultados organizacionais previamente definidos. Esse modelo pressupõe um sistema de controle estruturado para coordenar ações humanas e garantir eficiência na tomada de decisões. No campo político, Reed (1989) argumenta que a Gestão atua na resolução de conflitos de interesses dentro das organizações, equilibrando as necessidades dos diferentes agentes institucionais. Segundo essa abordagem, a Gestão se torna um mecanismo dinâmico, moldado pelas oscilações organizacionais e pelas mudanças estratégicas.
Na vertente crítica, Reed (1989) concebe a Gestão como um processo de autodeterminação e assimilação, promovendo discussões e ajustes contínuos dentro da própria estrutura organizacional. Diferente da visão técnica, que enxerga a Gestão como um objeto de planejamento, e da visão política, que a percebe como um processo social dinâmico, a vertente crítica baseia-se em princípios de transparência, auditoria e avaliação constante das práticas institucionais, garantindo que as ações permaneçam alinhadas às diretrizes e limitações organizacionais.
A abordagem triarborizada de Reed (1989) se aproxima das concepções de Pascoal (2006), que enfatiza o alcance dos objetivos organizacionais, e de Thompson (2008), que destaca a busca pela melhoria contínua. Essas perspectivas também encontram paralelos na concepção de Porto (1998), especialmente no que diz respeito ao alinhamento estratégico e ao processo de comunicação entre os diferentes níveis institucionais.
Com base nessas perspectivas, esta dissertação adota o entendimento de Gestão como um conjunto de processos aplicados dentro de uma instituição para alinhar estratégias de curto, médio e longo prazo com sua missão, visão e objetivos organizacionais (Pascoal, 2006; Porto, 1998; Thompson, 2008; Reed, 1984; Santos, 1997).
Dessa forma, torna-se evidente que a Gestão depende do contexto setorial no qual está inserida, bem como de suas premissas fundamentais e objetivos estratégicos. Para uma aplicação eficaz da Gestão, é necessário compreender as especificidades de cada processo e suas implicações práticas. Nas próximas seções, serão analisadas as características da Gestão Pública e da Gestão Educacional, áreas essenciais para o objeto de estudo deste trabalho.
3.1 GESTÃO PÚBLICA
Segundo Di Pietro (2022, p. 54), a Gestão e/ou Administração Pública são um conjunto de atos que abrange todas as atividades exercidas pelas pessoas jurídicas, órgãos e agentes incumbidos de atender concretamente às necessidades coletivas; exercidas, atualmente, de forma preferencial (e agora até eletrônica) pelos órgãos e entidades do poder público.
E num aspecto subjetivo, a autora ainda entende que toda Gestão e Administração Pública brasileira podem ser compreendidas como um conjunto de órgãos e de pessoas em que a lei atribui um exercício administrativo que deve ser realizado pelo Estado (Di Pietro, 2022, p.127). Deste modo, às luzes dos entendimentos de Reed (1999), Pascoal (2006) e Thompson (2015), toda Gestão Pública é, na sua aplicabilidade, um conjunto de atividades (dos três campos de natureza mencionados) que são visadas a partir do bem jurídico público, isto é, de atividades que desenvolvam um mínimo objetivo (final) massificado.
Di Pietro (2022, p.7), neste campo, afirma ainda que a Gestão e Administração Pública apresentam-se com duas modalidades de discernimento: (1) objetiva, que visa compreender Gestão como um ato administrativo (estritamente determinado pela Constituição e por suas leis complementares); e (2) subjetiva, composta pelos órgãos e pessoas que agem às suas consciências, mas que devem respeitar os princípios constitucionais.
Assim, embora ambos tenham como objetivo final atingir resultados positivos no que tange à prestação de serviços à população, são diferenciados pelo poder discricionário (interpretativo) do Gestor no campo subjetivo (Cretella, 2005, p.49) – onde as aplicabilidades de modelos de Gestão entram em funcionamento com as possíveis visões do Estado. No campo subjetivo, portanto, ocorre a eficácia destes modelos.
Já no horizonte técnico-central, às vistas do art. 1º da LC 101/2000, para que a Gestão Pública possa atingir os resultados positivos que almeja, isto é, eficiência e eficácia na prestação de serviços à população, “é necessário que haja uma integração entre quatro funções ou processos fundamentais que devem compô-la: planejamento, organização, execução e controle”, que podem ser melhoradas com a utilização de tarefas e atividades diferentes através do gestor de processos de atividades.
Deste modo, é notável que a Gestão Pública, diferente da Gestão comum, deve obedecer, obrigatoriamente, fundamentos teóricos de composição, mesmo que com a presença do poder discricionário do gestor (Barney, 2018). Logo, é indivisível ao processo de Gestão Pública o uso destas quatro ferramentas técnicas que auxiliam no processo de qualidade e finalidade da Gestão, entrando na responsabilidade do próprio gestor.
Quanto à sua funcionalidade, é coeso entender que a Gestão e Administração Pública (e por consequência o gestor e administrador) prestam o serviço público ao cidadão ou a todos os envolvidos com seus afazeres, sempre prezando a coletividade e o bem social (Meirelles, 2018, p.194). E assim, afirma-se que:
Todo ato administrativo prestado pela Administração Pública Direta ou Indireta, ou também por os seus delegados, sob normas e controles estatais, legais e constitucionais que visem sempre satisfazer todas as necessidades essenciais ou, até mesmo, secundárias da coletividade ou apenas uma simples conveniência do Estado (Meirelles, 2018, p.194)
Deste modo, o serviço público (ou ato público) são todos os atos, mesmo que não administrativos, realizados por quaisquer instituições públicas, com fundamento no coletivo, que devem seguir as premissas da LC 101/2000 e, por consequência, serem viáveis dentro do PODC (Planejamento, Organização, Direção e Controle), buscando sempre o melhor resultado e alinhamento com Lei e sociedade (Chiavenato, 2020).
Neste campo de alinhamento, cabe salientar, ademais aos conceitos já mencionados, que toda a Gestão Pública brasileira é regida pelos cinco princípios básicos de administração, baseados no art. 37 da Constituição Federal de 1988, que estabelece: “obedecer, toda administração pública direta e indireta de qualquer um dos Poderes da União, dos Estados, do Distrito Federal e dos Municípios, aos princípios constitucionais referentes a: Legalidade, Impessoalidade, Moralidade, Publicidade e Eficiência; tendo em vista que estes fundamentam-se pela boa prestação de serviço público, exímio e limpo.” Abre-se aqui uma parametrização a respeito da temática abordada: quando há má gestão relacionada a algoritmos e Inteligência Artificial (IAs), frente ao não cumprimento destes princípios, quem deve ser responsabilizado?
Para Santos (1997), através destes cinco princípios da Administração e Gestão Pública, define-se um rol de tarefas que devem ser realizadas para a maximização do serviço público (independentemente das tarefas exercidas), que são: (1) prestar contas de sua Gestão a partir de prazo em regulamento próprio; (2) realizar o acompanhamento e o controle, em termos físicos e financeiros, da execução do orçamento e dos programas de trabalho; (3) responsabilizar-se por uma Gestão fiscal que assegure equilíbrio das contas; (4) zelar pelos bens, direitos e valores de propriedade da Organização da qual está inserida; (5) autorizar a celebração de contratos e convênios, atendendo aos interesses e às finalidades da Organização ao qual está inserido; e (6) realizar toda a Gestão com o público bem como a relação com seus meios internos/externos de envolvimento. Todas estas são atribuições inatas à gestão pública eficaz, que se alinha às previsões da lei.
Nesta visão, quando há ferimento de princípios através do uso das IAs, quem deve ser responsabilizado? Afinal, todas estas funções advêm dos cinco princípios que regem os atos públicos e devem estar instruídas dentro de todos os processos que estão sob guarda de uma Gestão do Estado, para que as atividades possuam legalidade. Faz-se necessário aqui, portanto, avaliar o entendimento das ferramentas em discussão.
3.2 Algoritmos e Inteligência Artificial
O avanço da inteligência artificial (IA) tem despertado crescente atenção nos setores público e privado, impulsionando debates acerca de sua aplicabilidade e impactos na sociedade. Em 2016, dada a relevância da temática para países desenvolvidos, o Comitê de Ciência e Tecnologia do Parlamento Britânico iniciou um inquérito institucional para examinar a crescente utilização de algoritmos na tomada de decisões. O objetivo principal era analisar métodos de formulação e readequação desses algoritmos, seus possíveis erros e correções, bem como os impactos sociais e econômicos decorrentes. Além disso, discutiu-se a ausência de regulamentação específica para programadores e desenvolvedores, levantando questionamentos sobre a responsabilidade jurídica em situações de imperícia ou falhas técnicas (Felisdório; Silva, 2018).
A investigação parlamentar revelou duas abordagens distintas: (1) a atribuição de responsabilidade ao programador; e (2) a consideração de que tal responsabilidade não pode ser total, dado que as decisões tomadas por algoritmos nem sempre refletem um controle humano direto (Felisdório; Silva, 2018). Nesse contexto, identificou-se o chamado “vagão informativo”, conceito segundo o qual não se pode determinar, de maneira definitiva, a responsabilidade pelos atos cometidos por uma IA, especialmente em sistemas de Machine Learning e Deep Learning. Isso ocorre porque tais sistemas podem operar de maneira autônoma, tomando decisões com base em aprendizados contínuos que não necessariamente estavam previstos na programação original (Felisdório; Silva, 2018, p.37).
A partir dessa análise, surgem questões a serem levadas em consideração, por exemplo: a atuação de sistemas autônomos rompe o nexo causal entre o programador, o usuário e o dano gerado? Se uma IA não possui personalidade jurídica, como responsabilizá-la por eventuais danos causados? Se houver responsabilidade, quem deve respondê-la? Essas indagações reforçam a complexidade do tema.
A presente pesquisa, portanto, centra-se na perspectiva da responsabilidade pessoal, especialmente no dever de reparar danos e na identificação dos sujeitos passíveis de responsabilização. A principal questão que se coloca é: a manipulação prévia de uma IA permite a imputação de responsabilidade a seus programadores ou gestores públicos? Matthias (2004) apresenta uma análise pertinente:
Tradicionalmente, tomamos ou o operador/fabricante da máquina responsável pelas consequências de sua operação ou ‘ninguém’ (em casos em que nenhuma falha pessoal possa ser identificada). Agora pode ser demonstrado que há uma crescente classe de ações de máquinas, onde as formas tradicionais de atribuição de responsabilidade não são compatíveis com nosso senso de justiça e com a estrutura moral da sociedade, porque “ninguém tem controle suficiente sobre as ações da máquina para poder assumir a responsabilidade por eles. Esses casos constituem o que se chama de uma grande lacuna de responsabilidade e se deve reportar à discussão (MATTHIAS, 2004, p. 24)
A título exemplificativo, pode-se citar o caso IC 347 da 5ª Promotoria de Justiça de Tutela Coletiva de Defesa do Consumidor e do Contribuinte do Rio de Janeiro, em que a empresa Decolar.com foi acusada de práticas discriminatórias contra usuários com base na sua localização geográfica. O processo revelou que os algoritmos da plataforma manipulavam automaticamente os preços de hospedagens, alterando-os conforme a região do usuário. A questão central do caso reside no fato de que tais práticas não foram deliberadamente programadas, mas resultaram de processos autônomos de aprendizado dos sistemas de Machine Learning e Deep Learning. Até o momento, não há conclusão definitiva sobre a responsabilidade jurídica envolvida.
Na mesma linha, uma reportagem do The Guardian (2018) trouxe à tona o caso da Amazon, que, em 2017, enfrentou questionamentos legais devido ao viés discriminatório de seu algoritmo de seleção de candidatos. O Tribunal Distrital da Pensilvânia analisou como a IA da empresa favorecia currículos de candidatos do sexo masculino, penalizando aqueles que mencionavam a palavra “mulheres”, como em “capitã do clube de xadrez feminino”.
“Em vez disso, a tecnologia favoreceu os candidatos que se descreviam usando verbos mais comumente encontrados nos currículos dos engenheiros do sexo masculino, como executado e capturado” (Guardian, 2018).
Esse caso ilustra como a IA pode reforçar preconceitos estruturais, evidenciando os desafios regulatórios no campo da responsabilidade civil e ética da automação.
Esses exemplos demonstram a dificuldade do sistema judiciário e da doutrina jurídica em determinar responsabilidades em atos praticados por sistemas de IA. A discussão sobre esse tema envolve não apenas a definição de culpabilidade, mas também a própria concepção de personalidade jurídica aplicada à IA, além de questões relativas ao regime de responsabilidade e à previsibilidade de comportamento frente à gestão pública.
3.2.1 Conceito de inteligência artificial e suas aplicações
O conceito de IA remonta aos estudos estatísticos e matemáticos da década de 1940, quando pesquisadores começaram a projetar sistemas capazes de simular a cognição humana. A partir dos Seminários de Hixon, realizados em 1948, especialistas em diversas áreas, incluindo matemática, biologia e ciências humanas, reuniram-se para discutir a criação de sistemas que pudessem substituir a força de trabalho humano ou replicar suas capacidades cognitivas (Gardner, 2006). Durante esses seminários, a IA passou a ser entendida como uma ciência aplicada à engenharia e à linguagem computacional, baseada em três pilares fundamentais: aprendizado, memorização e tomada de decisão (Si; Barto; Powell; Wunsch, 2004).
No contexto atual, a definição de IA permanece alinhada aos fundamentos originais, mas com modificações que incluem novos modelos de inteligência, diferentes graus de autonomia e capacidade de adaptação das máquinas. Siqueira e Pereira (1989, p. 42) definem IA como:
Uma arte científica de escrever e reescrever programas capazes de exibir um comportamento inteligente… É um ramo da engenharia do conhecimento e está ligada à ciência cognitiva, mantendo ligações privilegiadas com a lógica, a linguística, a psicologia, a psicolinguística, a biologia e outras várias ciências.
Russell (2013, p. 7) amplia essa definição ao descrever IA como um agente tecnológico dotado de habilidades para produção, reação, planejamento, tomada de decisão, inferência criativa e armazenamento de informações. Esse entendimento ressalta que sistemas autônomos podem se tornar cada vez mais independentes, criando desafios para a regulação e a imputação de responsabilidade jurídica.
Dessa forma, a IA apresenta-se como um campo de estudo complexo e multidisciplinar, com implicações diretas na gestão pública e na formulação de políticas de governança digital. No próximo capítulo, será abordada a relação entre personalidade jurídica e a responsabilização das IAs no direito público brasileiro.
4 PERSONALIDADE JURÍDICA E RESPONSABILIDADE: IMPACTOS SOB O GESTOR PÚBLICO
A personalidade, no âmbito do Direito, especialmente no ordenamento jurídico brasileiro, refere-se à aptidão genérica para a titularidade de direitos e deveres, sendo um dos polos das relações jurídicas (Doneda, 2022). Em outras palavras, a personalidade jurídica define o sujeito que detém direitos e deveres tutelados pelo sistema legal. Nesse sentido, Motta (2021) afirma que:
Num sentido puramente técnico ser pessoa é precisamente ter aptidão para ser sujeito de direitos e obrigações; é ser um centro de imputação de poderes e deveres jurídicos, ser um centro de uma esfera jurídica. Neste sentido técnico-jurídico não há coincidência entre a noção de pessoa ou sujeito de direito e a noção de ser humano. Os seres humanos não são necessariamente, do ponto de vista lógico, pessoas em sentido jurídico, mas tornam-se na formação de seus direitos subjetivos e objetivos. (Motta, 2021, p. 84-85)
Todavia, a personalidade jurídica não se limita à existência humano-prática. Além das personalidades básicas (físicas e jurídicas), o ordenamento jurídico também contempla as chamadas personalidades despersonalizadas ou formais, que, embora não possuam personalidade jurídica própria, podem adquirir direitos e contrair obrigações (Farias, 2021, p.4). Diniz (2022) ressalta que entidades como espólios e massas falidas se encaixam nessa categoria, sendo excepcionadas dentro do Direito. Nesse sentido, Motta (2021) reforça que:
O conceito técnico-jurídico de pessoa não coincide, portanto, necessariamente com o de homem ou de ser humano. Todavia, se todo o direito é constituído por causa e para serviço dos homens, é logicamente forçoso que, pelo menos alguns homens sejam dotados de personalidade jurídica, tão quanto seus resul-tados assim sejam (Motta 2021, p. 84-85).
Dessa forma, verifica-se uma divergência doutrinária quanto à concepção da personalidade jurídica. Enquanto autores como Tepedino (2022), Pereira (2021) e Gonçalves (2023) sustentam que apenas entes orgânicos podem ser detentores de personalidade jurídica, outros, como Farias (2021), Diniz (2022) e Motta (2021), argumentam que a personalidade jurídica pode ser estendida a entidades não orgânicas que desempenhem funções relevantes no Direito.
Esse desalinhamento teórico, no contexto da Inteligência Artificial, levanta a questão: uma IA pode ser dotada de personalidade jurídica no Direito Público brasileiro? Os estudos de Teffé (2023) sugerem que há margem para essa possibilidade, especialmente quando se considera a existência de personalidade subjetiva. Por outro lado, Pires (2023) refuta essa ideia, argumentando que a personalidade jurídica deve estar atrelada exclusivamente a produções humanas tecnológicas, sendo que a responsabilidade sempre deve recair sobre seus criadores.
Dentro dessa perspectiva, surge a questão da responsabilidade. Sem uma personalidade jurídica formalmente reconhecida, seria possível responsabilizar o programador ou o gestor público por ações autônomas de uma IA, mesmo que essas ações não resultem de condutas inadequadas? Segundo Pires (2023), sim, pois toda inteligência artificial depende da programação e administração humana. Já Teffé (2023) argumenta que a responsabilidade exige nexo causal, e que, quando a IA atua de forma autônoma, esse nexo se rompe, eximindo o gestor público ou programador de responsabilidade direta.
Conceitualmente, Lôbo (2021) define a responsabilidade jurídica como:
Um dever jurídico sucessivo que surge para restaurar um dano causado pela violação do dever jurídico originário, em outras palavras, é a obrigação pecuniária de reparar um dano causado a outrem, seja ele por ação ou omissão, através da indenização – indiferente do tempo em que este está sendo julgado; obviamente não prescrito no ordenamento jurídico brasileiro (Lôbo, 2021, p.24).
A base legal desse conceito encontra-se nos artigos 186 e 927 do Código Civil de 2002, que estabelecem que “aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito” (art. 186) e que “aquele que, por ato ilícito, causar dano a outrem, fica obrigado a repará-lo” (art. 927). A questão que este estudo propõe não é a obrigação de reparar o dano, mas sim quem deve ser considerado “aquele” na interpretação da lei. Teffé (2023) sugere que essa responsabilidade poderia recair sobre a própria IA equiparando-a a uma entidade jurídica, enquanto Pires (2023) defende que essa responsabilidade deve ser atribuída apenas a uma pessoa física ou jurídica tangível.
Outro ponto relevante na discussão da responsabilidade envolve a intencionalidade da IA. Searle (2006) destaca que:
Sistemas de IA são desprovidos de intencionalidade, mimetizando, apenas, o comportamento intencional a partir de parâmetros pré-estabelecidos de output diante de elementos de input pré-selecionados. Operam, portanto, a partir de uma estrutura puramente sintática, da qual é exemplificativa o chamado “experimento do quarto chinês”: imagine que você execute as etapas de um programa elaborado para responder perguntas em um idioma que você não compreende. Eu não entendo chinês, então imagino que estou trancado numa sala cheia de caixas com símbolos chineses (a base de dados), recebo uma pequena quantidade de símbolos chineses (perguntas em chinês), e, então, procuro em um manual (o programa) o que deveria fazer. Realizo algumas operações com os símbolos de acordo com as regras, entrego uma pequena quantidade de símbolos (respostas às perguntas) aos que se encontram fora do quarto. Eu sou um computador executando um programa para responder perguntas em chinês, mas ao mesmo tempo não compreendo uma palavra em chinês, então eu não tenho responsabilidade nem intenção, assim, de realizar um dano, mas posso realizá-lo; e não é culpa minha ou do meu criador (Searle, 2006, p.38)
Esse experimento propõe que, mesmo que um sistema de IA possa responder corretamente a estímulos externos, isso não significa que compreenda ou tenha intenção no que faz, levantando questionamentos sobre sua responsabilização por eventuais danos.
Outra questão relevante é como garantir a reparação de danos causados pela IA na gestão pública. Mesmo sem um nexo causal direto, o gestor público poderia ser responsabilizado? O debate se amplia para incluir os seguintes aspectos: (1) a existência de um ou mais delitos; (2) o dever de reparar o dano; (3) dolo ou culpa; (4) personalidade jurídica; (5) a não interferência direta do programador; (6) a tutela do Estado sobre bens jurídicos; e (7) os limites da aplicação do Direito a esses casos. Todos esses elementos permanecem indefinidos no ordenamento jurídico brasileiro.
Atualmente, o Brasil não dispõe de um marco legal consolidado para disciplinar os direitos e deveres relacionados à Inteligência Artificial. No entanto, a Lei nº 12.965/2014 (Marco Civil da Internet) estabelece diretrizes gerais que podem servir como base interpretativa, incluindo:
II – proteção da privacidade; III – proteção dos dados pessoais, na forma da lei; IV – preservação e garantia da neutralidade de rede; V – preservação da estabilidade, segurança e funcionalidade da rede, por meio de medidas técnicas compatíveis com os padrões internacionais e pelo estímulo ao uso de boas práticas; VI – responsabilização dos agentes de acordo com suas atividades, nos termos da lei; VII – preservação da natureza participativa da rede; VIII – liberdade dos modelos de negócios promovidos, desde que não conflitem com os demais princípios estabelecidos nesta Lei (Brasil, 2014).
Embora o Marco Civil estabeleça diretrizes para a responsabilização de agentes, a legislação brasileira ainda carece de normas específicas para regular a IA, os algoritmos e sua aplicação na gestão pública. Assim, a definição de responsabilidades e direitos nesse contexto permanece em aberto, reforçando a necessidade de uma análise jurídica aprofundada sobre a matéria. Com base nesses aspectos, a próxima seção apresenta as conclusões do estudo.
5 CONCLUSÃO
No atual cenário jurídico, percebe-se que as doutrinas e jurisprudência permanecem divididas quanto à responsabilização dos agentes públicos que desenvolvem, gerenciam ou operam ferramentas baseadas em inteligência artificial. Um dos desafios centrais reside na dificuldade de enquadrar essas tecnologias nos modelos tradicionais de responsabilidade civil e administrativa, sobretudo quando há um distanciamento entre a ação humana e os impactos gerados por decisões algorítmicas. A ausência de personalidade jurídica nas inteligências artificiais reforça essa dificuldade, pois impede que possam responder diretamente por danos, trazendo implicações para a indenização das vítimas e a definição de culpabilidade.
Dessa forma, a ausência de um arcabouço legal claro sobre a matéria demanda a realização de novos debates aprofundados, que abordem as variações específicas do tema no direito público. Entre os pontos que exigem maior aprofundamento, destacam-se a delimitação do nexo causal na atuação de sistemas inteligentes, a necessidade de regulamentação que defina os limites da autonomia algorítmica na administração pública, e a atribuição de responsabilidades aos agentes públicos que supervisionam esses sistemas. Também é essencial compreender até que ponto a tomada de decisão algorítmica pode se distanciar do princípio da discricionariedade administrativa e como esse fator impacta a conformidade legal dos atos praticados.
Outro aspecto relevante refere-se à necessidade de parâmetros normativos para estabelecer diretrizes éticas e operacionais no uso de inteligência artificial pelo setor público. A definição de limites para o uso de algoritmos na administração deve considerar tanto a eficiência proporcionada por essas ferramentas quanto os riscos de violação de direitos fundamentais. O reconhecimento de direitos dos cidadãos frente às decisões automatizadas deve ser uma prioridade regulatória, garantindo mecanismos de contestação e transparência nos processos decisórios baseados em IA.
Além disso, é imprescindível que sejam incorporadas análises técnicas interdisciplinares ao debate jurídico, permitindo que especialistas em tecnologia, filosofia do direito, administração pública e ética digital contribuam para a formulação de uma estrutura normativa mais abrangente. Esse diálogo é essencial para garantir que a regulamentação da inteligência artificial na gestão pública acompanhe o avanço tecnológico sem comprometer os direitos fundamentais dos indivíduos.
Assim, conclui-se que o ordenamento jurídico brasileiro ainda precisa evoluir para acompanhar as inovações tecnológicas e estabelecer diretrizes claras sobre o uso de inteligência artificial na administração pública. A regulamentação deve garantir a transparência, a responsabilização e a proteção dos cidadãos frente aos impactos das decisões automatizadas, assegurando que a adoção dessas tecnologias ocorra de maneira ética e conforme os princípios constitucionais. Somente a partir de um debate aprofundado e interdisciplinar será possível construir um modelo normativo capaz de equilibrar inovação e segurança jurídica, promovendo uma gestão pública mais eficiente e justa.
REFERÊNCIAS
SI, Jennie; BARTO, Andrew G.; POWELL, Warren B.; WUNSCH II, Donald C. Reinforcement Learning and Its Relationship to Supervised Learning. In: SI, Jennie; BARTO, Andrew G.; POWELL, Warren B.; WUNSCH II, Donald C. (Eds.). Handbook of Learning and Approximate Dynamic Programming. Hoboken, NJ: John Wiley & Sons, 2004. Cap. 2, p. 45-62. DOI: 10.1002/9780470544785.ch2.
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União, Brasília, DF, 24 abr. 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 20 fev. 2024
BRASIL. Código Civil. Lei nº 10.406, de 10 de janeiro de 2002. Diário Oficial da União, Brasília, DF, 11 jan. 2002. Disponível em: https://www.planalto.gov.br/ccivil_03/LEIS/2002/L10406compilada.htm. Acesso em: 20 fev. 2024
BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 20 fev. 2024
CHIAVENATO, Idalberto. Administração: teoria, processo e prática. 6. ed. Rio de Janeiro: Elsevier, 2020.
DINIZ, Maria Helena. Curso de Direito Civil Brasileiro: Teoria Geral do Direito Civil. 39. ed. São Paulo: Saraiva Jur, 2022.
DONEDA, Danilo. Da privacidade à proteção de dados pessoais. Rio de Janeiro: Renovar, 2022.
FARIAS, Cristiano Chaves de; ROSENVALD, Nelson. Curso de Direito Civil: Parte Geral. 11. ed. Salvador: JusPodivm, 2021.
FELISDÓRIO, Rodrigo César Santos; SILVA, Luís André Dutra e. Inteligência artificial como ativo estratégico para a Administração Pública. In: FERNANDES, Ricardo Vieira de Carvalho; CARVALHO, Angelo Gamba Prata de (Coord.). Tecnologia jurídica & direito digital: II Congresso Internacional de Direito, Governo e Tecnologia – 2018. Belo Horizonte: Fórum, 2018. p. 95-100.
GARDNER, Howard. A nova ciência da mente: uma história da revolução cognitiva. São Paulo: EDUSP, 2006.
GONÇALVES, Carlos Roberto. Direito civil brasileiro. 8. ed. São Paulo: Saraiva, 2023.
GUARDIAN, The. Amazon’s AI recruitment tool discriminated against women. 2018. Disponível em: https://www.theguardian.com/technology/2018/oct/10/amazon-ai-recruitment-bias-women. Acesso em: 15 fev. 2021
LÔBO, Paulo Luiz Netto. Direito Civil: Obrigações. 8. ed. São Paulo: Saraiva, 2021.
MOTTA, Carlos Eduardo Pianovski Ruzyk. Inteligência Artificial e Responsabilidade Civil. Curitiba: Juruá, 2021.
PASCOAL, Salvelina Avancini; CRUZ, Helio Alves da. Gestão de Pessoas e as Técnicas de Recrutamento e Seleção: o Caso Sos Cardio de SC. In: SEGET – Simpósio de Excelência em Gestão e Tecnologia, 2006. Disponível em: https://www.aedb.br/seget/arquivos/artigos14/45120590.pdf. Acesso em: 05 fev. 2024.
PEREIRA, Caio Mário da Silva. Instituições de Direito Civil. 25. ed. Rio de Janeiro: Forense, 2021.
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de Políticas Públicas, v. 7, n. 3, p. 238-254, 2017. DOI: 10.5102/rbpp.v7i3.4951. Disponível em: https://www.rdi.uniceub.br/RBPP/article/view/4951. Acesso em: 10 mar 2024.
PORTO, João Batista de Mello. Gestão Pública e Desenvolvimento Sustentável. 2. ed. São Paulo: Atlas, 1998.
REED, Michael. Management as a social practice. Journal of Management Studies, v. 21, n. 3, p. 273-285, 1984.
RUSSELL, Stuart J. (Stuart Jonathan), 1992 – Inteligência artificial / Stuart Russell, Peter Norvig; tradução Regina Célia Simille. – Rio de Janeiro: Elsevier, 2013.
SANTOS, Wanderley Guilherme dos. Razões da Desordem. Rio de Janeiro: Rocco, 1997.SEARLE, John R. A redescoberta da mente. [Trad.] Eduardo Pereira e Ferreira. São Paulo: Martins Fontes, 2006.
SIQUEIRA, Idméa Semeghini Próspero; PEREIRA, Antonio Eduardo da Costa. Perspectivas de aplicação da inteligência artificial à biblioteconomia e à ciência da informação. Revista Brasileira de Biblioteconomia e Documentação, São Paulo, v. 22, n. 1/2, p. 39-80, jan./jun. 1989. Disponível em: http://www.brapci.inf.br/_repositorio/2011/09/pdf_abeb70e727_0018687.pdf. Acesso em: 10 mar 2024.
TEFFÉ, Chiara Spadaccini de; MEDON, Filipe. Responsabilidade civil e regulação de novas tecnologias: questões acerca da utilização de inteligência artificial na tomada de decisões empresariais. Revista Estudos Institucionais, v. 6, n. 1, p. 301-333, jan./abr. 2020. DOI: 10.21783/rei.v6i1.383. Disponível em: https://www.estudosinstitucionais.com/REI/article/view/383. Acesso em: 15 mar 2024.
TEPEDINO, Gustavo. Temas de Direito Civil. 2. ed. Rio de Janeiro: Renovar, 2022. THOMPSON, James. Teoria da Gestão Moderna. Oxford: Oxford University Press, 2008.
[1] mestre em Direito pelo Centro Universitário Internacional UNINTER (2021) e especialista em Direito Constitucional e em Direito das Famílias e Sucessões pela Academia Brasileira de Direito Constitucional (ABDConst). Graduada em Direito pela FESP e em Letras pela PUCPR. Atua como docente na FESP, onde supervisiona atividades práticas em Direito. Cadastro ORCID: https://orcid.org/0000-0001-6078-6672. Currículo Lattes: http://lattes.cnpq.br/9073951682322326. Contato: jessicasouza@fesppr.edu.br
[2] Bacharel em Direito pela Faculdade de Educação Superior do Paraná (FESP) e atua nas áreas de Direito Administrativo e Processual, com experiência em acompanhamento processual e atendimento ao público em órgãos judiciais e administrativos. Cadastro ORCID: https://orcid.org/0000-0003-0755-1182 . Currículo Lattes: http://lattes.cnpq.br/3964885176835096 . Contato: vajosan054@gmail.com.