Ética, governança e confiabilidade no uso da Inteligência Artificial – novas frentes de atuação jurídica

A expansão do uso da Inteligência Artificial (IA) demonstra que as suas funcionalidades ultrapassam o apoio na criação de documentos ou em questões ordinárias do dia a dia – como  criar receitas culinárias ou resolver questões matemáticas.

A IA também está profundamente integrada às plataformas de empresas, comércio e de redes sociais, criando desafios jurídicos relevantes em áreas como proteção de dados pessoais e liberdade de expressão.

 

Algoritmos de recomendação gerados pela IA, por exemplo, influenciam o comportamento dos usuários ao priorizar conteúdos com base em preferências e padrões de interação.

 

Acontece que esse processo automatizado pode reforçar bolhas informacionais, propagar desinformação e intensificar discursos extremos, levantando questões sobre a responsabilidade civil das plataformas e a necessidade de regulação algorítmica.

 

As informações sintéticas geradas pela IA preocupam pois podem ser disseminadas, atingindo um grande número de pessoas que, muitas vezes, consomem o conteúdo sem qualquer tipo de questionamento ou visão crítica, inclusive sobre sua origem.

 

O alcance dessas informações, apesar de compartilhadas em redes e aplicativos privados, tem repercussão pública, especialmente em tempos de conflitos internacionais, eleições ou questões pontuais de ampla divulgação.

 

A problemática se destaca no ponto de que não se pode esquecer que o acesso à internet e meios de comunicação se dá por milhares de pessoas, sendo que o controle para a análise das implicações éticas e legais é difícil e moroso.

 

Além disso, mecanismos de moderação automatizada de conteúdo, baseados em IA, podem remover postagens legítimas ou, ao contrário, falhar em bloquear conteúdos nocivos, afetando diretamente direitos fundamentais.

 

Nesse cenário, torna-se essencial alinhar os valores sociais às decisões tomadas por sistemas de IA, para que esses algoritmos promovam efeitos desejáveis e decisões justas em contextos diversos — especialmente na moderação de conteúdo.

 

Sem esse alinhamento ético, a atuação da IA corre o risco de reproduzir ou até ampliar desigualdades e violações à direitos mandatórios.

 

Por isso, cresce a demanda por transparência algorítmica, auditoria independente, e pela aplicação das legislações de proteção de dados, como por exemplo a LGPD no Brasil e o GDPR na União Europeia.

 

Tais questões vêm se consolidando como novas frentes de atuação jurídica, exigindo profissionais atentos aos impactos sociais da inteligência artificial no ambiente digital.

 

A limitação de atuações com base nas informações obtidas pela IA, ou até mesmo a sua utilização para fundamentação ou elaboração de documentos, vêm se destacando, mas também de maneira negativa.

 

A tecnologia é muito favorável, mas o que deve ser considerado é que ela se amolda às necessidades e impulsos dos usuários.

 

No âmbito jurídico, por exemplo, quando a IA é instada a auxiliar na elaboração de petições ou pareceres, ela tende a apresentar uma solução ou textos que representem a intenção do solicitante – não sendo raro nos dias atuais se obter artigos de lei e jurisprudência fictícios criados de maneira a endossar a hipótese levantada no momento.

 

De igual maneira, as ferramentas e plataformas de IA são desenvolvidas de acordo com os ditames éticos e morais de seus percursores. Mas como é possível cogitar uma base para a IA que leve em consideração a amplitude de princípios e culturas? Talvez esse seja o grande desafio atual.

 

Considerando isso, no cenário internacional, a União Europeia estabeleceu, em 2019, as Ethics Guidelines for Trustworthy AI, definindo os fundamentos de uma IA confiável. Segundo o documento, três pilares devem nortear o desenvolvimento e a aplicação da referida tecnologia: legalidade, ética e robustez técnica.

 

Deve ser legal, de modo a cumprir todas as leis e regulamentos aplicáveis; deve ser ética, garantindo a adesão aos princípios e valores; e deve ser robusta, tanto do ponto de vista técnico quanto social, visto que, mesmo com boas intenções, os sistemas de IA podem causar danos intencionais.

 

A partir disso, foram identificados sete requisitos essenciais para que a IA seja considerada digna de confiança: supervisão humana; robustez técnica e segurança; privacidade e governança de dados; transparência; diversidade, não discriminação e equidade; bem-estar social e ambiental; e responsabilização e prestação de contas.

 

Essas diretrizes influenciaram diretamente a criação do AI Act, aprovado em 2024 pela União Europeia, que classifica sistemas de IA de acordo com seu grau de risco (de mínimo a inaceitável) e impõe obrigações proporcionais, especialmente quanto à transparência, segurança e supervisão.

 

Assim, a classificação e as suas respectivas obrigações podem levar em consideração tanto como indicações de livros filmes (grau de risco mínimo), quanto sistemas que representam ameaça aos direitos humanos e fundamentais (grau de risco inaceitável), por exemplo.

 

Além disso, foi desenvolvida a ferramenta ALTAI (Assessment List for Trustworthy AI), que permite avaliar se um sistema de IA está alinhado com os princípios éticos propostos, reforçando a governança nas relações.

 

Esses atos, diretrizes e instrumentos, portanto, oferecem modelos que estão servindo de inspiração para outras jurisdições, inclusive no contexto brasileiro.

 

Um exemplo é o projeto de lei sobre o uso da IA (PL 2.338/2023), que está em tramitação no Congresso Nacional e propõe a classificação de sistemas por níveis de risco, ressaltando a necessidade de uso responsável da ferramenta.

 

As discussões éticas e de governança tecnológica vêm ganhando contornos normativos relevantes, sobretudo quando se trata da responsabilização por danos causados automatizações, do respeito à autodeterminação informativa e da proteção de direitos fundamentais.

 

Em síntese, o debate sobre ética, governança e confiabilidade da IA deve ser acompanhado de um esforço normativo consistente, capaz de assegurar que o desenvolvimento tecnológico ocorra de forma responsável, com pleno respeito aos valores constitucionais e aos direitos fundamentais.

 

O Direito, nesse contexto, não deve apenas reagir, mas participar ativamente no desenvolvimento da inteligência artificial de modo e promover a promova justiça, a equidade e  a dignidade humana. O desafio não é apenas técnico ou legislativo — é, sobretudo, ético.