O Direito atrás da Tecnologia: como as regulações tentam alcançar a Inteligência Artificial
Uma análise crítica das estratégias legislativas para enfrentar o avanço da IA e dos limites estruturais que desafiam seu sucesso
👋Olá! Bem vindos a mais uma edição de Ética, Direito e Inteligência Artificial, por André Gualtieri!
Aqui vão algumas maneiras pelas quais eu posso te ajudar:
Board Technoethics: comunidade dedicada à análise profunda das tendências tecnológicas emergentes e seus impactos no mercado e nas organizações. O tema deste mês é: Propósito Humano na Era dos Algoritmos: Religião, Espiritualidade e IA no Mundo Corporativo
Mentoria em Ética e Governança de IA: orientação e acompanhamento personalizados para quem quer liderar em ética e governança
IA em Ação: 12 Casos Reais de Riscos Éticos e Jurídicos: curso gratuito sobre impactos positivos e negativos da IA em diversas áreas e na sociedade
Curso de Governança de IA: ensino, na prática, como estruturar a Governança de IA em organizações
“Pode um sistema jurídico projetado por seres humanos manter-se atualizado frente a atividades produzidas por uma IA capaz de superá-los em raciocínio e, potencialmente, enganá-los?”
Essa pergunta, feita por Henry Kissinger em seu ensaio How the Enlightenment Ends, pode parecer exagerada à primeira vista, quase como uma provocação futurista. Mas, ao mergulharmos no que está sendo discutido hoje em matéria de regulação de inteligência artificial, percebemos que não se trata de uma hipótese distante.
Essa é, no fundo, a pergunta que define as soluções jurídicas que queremos dar atualmente para a IA. Ela nos convida a pensar sobre a forma como estamos regulando a IA e sobre o risco dessa regulação acabar perdendo a corrida contra a própria tecnologia.
A partir da pergunta de Kissinger, apresento a seguir como diferentes legislações têm buscado enfrentar o desafio de não ficar para trás ao tentar regular a IA.
O AI Act
A União Europeia aprovou seu AI Act com grande alarde, apresentando-o como a primeira tentativa abrangente de regulação da inteligência artificial e referência internacional para outras legislações.
No entanto, antes mesmo de entrar plenamente em vigor, já há questionamentos profundos sobre sua viabilidade. O Primeiro-Ministro da Suécia, por exemplo, chamou o texto de confuso e alertou para a ausência de padrões comuns, enquanto parlamentares já cogitam incluir o AI Act no pacote de “simplificação digital” da Comissão Europeia.
Isso pode demonstrar, ao mesmo tempo, uma admissão de fracasso e um sinal de que o próprio direito, tal como está formulado, não consegue acompanhar o ritmo da inovação.
O AI Act estabelece uma abordagem baseada em risco. Mas será que isso basta diante da velocidade e da complexidade do avanço tecnológico?
Segundo Luiza Jarovsky, abordagens desse tipo não são adequadas para lidar com os riscos emergentes da IA, em especial devido a fatores como
o descompasso entre o tempo da lei e o tempo da tecnologia;
a possibilidade de estratégias jurídicas de evasão e
a dificuldade de antecipar a vulnerabilidade real das pessoas frente a sistemas complexos.
Jarovsky pergunta: como criar regras eficazes para uma tecnologia que muda a cada semana?
Califórnia: a proposta de um projeto que fracassou
O problema da constante mudança da tecnologia era algo que parecia melhor contemplado no malfadado projeto de regulação da IA na Califórnia, o Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.
O foco ali não era a categorização de risco, mas sim a imposição de obrigações específicas de segurança e responsabilização para os modelos mais potentes, com base em seu poder computacional e potencial de dano.
Ainda assim, essa abordagem enfrenta um novo obstáculo. É que as scaling laws (mais dados, mais parâmetros, mais capacidade computacional = mais desempenho), antes vistas como norteadoras do progresso em IA , estão sendo cada vez mais desafiadas por novas abordagens de arquitetura e treinamento.
Surgiram novos modelos que parecem mostrar que não é preciso necessariamente mais poder computacional para obter melhores resultados, pois existem outras técnicas por meio das quais modelos podem funcionar melhor sem que precisem ter mais FLOPS (operações de ponto flutuante por segundo, medida usada para avaliar o poder de processamento de um sistema).
Isso aconteceu com o lançamento do o1, o modelo de raciocínio da OpenAI, e com o R1 da DeepSeek.
Se as coisas forem realmente assim, regulações que usam o poder de processamento como critério para definir risco, como a lei californiana e o próprio AI Act, estão obsoletas antes mesmo de começarem a valer.
A lei japonesa
O Japão, por sua vez, tem adotado um modelo completamente diferente. A nova lei japonesa de IA não impõe sanções, não define categorias de risco e nem cria autoridades fiscalizadoras.
Em vez disso, propõe um regime de diretrizes, compromissos interministeriais e governança coordenada com o setor privado.
Com isso, a lei busca fomentar a inovação com responsabilidade, sem sufocar startups e centros de pesquisa com exigências rígidas — uma estratégia que está bastante alinhada à cultura institucional japonesa, o que pode limitar sua aplicabilidade direta em contextos como o brasileiro.
O PL de IA brasileiro
O PL 2338/2023, que tramita agora na Câmara, apresenta inspiração no modelo europeu, especialmente na lógica de classificação por risco e na previsão de obrigações legais para desenvolvedores e implementadores de IA, incluindo deveres de transparência.
No entanto, sua estrutura é mais delineada, com a criação explícita de um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), composto por autoridades setoriais, comitês técnicos e mecanismos de coordenação interinstitucional.
Essa formulação busca oferecer respostas nacionais integradas, ainda que, na prática, dependa da implementação efetiva dessas estruturas.
A dificuldade de implementação é especialmente relevante na medida em que nosso país sofre com baixa capacidade institucional e um ecossistema de inovação que ainda engatinha.
O problema, aqui, talvez não esteja tanto no que a legislação prevê, mas no que ela prevê à luz das limitações reais que enfrentamos.
Adaptação
Não há "bala de prata" para lidar com os problemas enunciados por Kissinger. Tenho simpatia pelo que Dean W. Ball chama de “infraestrutura regulatória adaptativa”: padrões técnicos, novas formas de responsabilização civil, capacidade pública de auditoria, mecanismos de transparência e protocolos de segurança.
Em vez de tentar capturar a IA em uma legislação fixa, talvez devêssemos criar as condições para que possamos compreendê-la, monitorá-la e reagir com rapidez quando necessário.
O próprio PL 2338/2023 prevê a criação de uma estrutura institucional que demonstra alguma intenção nesse sentido, incluindo as previsões sobre o SIA com as autoridades setoriais, a autorregulação, o Conselho Permanente e o Comitê de Especialistas.
Mas essas capacidades ainda precisam se tornar efetivas, o que exige investimentos reais em infraestrutura pública, capacitação técnica e mecanismos de articulação entre os atores envolvidos. Sem isso, o risco é termos um sistema sofisticado no papel, mas ineficiente na prática.
Conclusão
Se tomarmos a pergunta de Kissinger como guia, veremos que nenhuma das respostas atuais parece plenamente satisfatória.
Talvez ela não deva ser respondida apenas com leis, mas com uma nova arquitetura institucional e cultural. Algo que nos permita continuar enfrentando o dinamismo da IA, mantendo o controle sobre as regras do jogo.
🔍 Em meio à crescente presença de agentes de IA em nossas vidas, uma nova busca ganha força no mundo corporativo: o reencontro com espiritualidade, propósito e sentido.
Esse movimento, que pode parecer contraditório à lógica tecnológica, está transformando a forma como líderes e profissionais lidam com a automação, a inteligência artificial e o próprio trabalho.
❓Como compreender essa virada? Qual o papel das religiões e da espiritualidade na era dos algoritmos?
Essas são as questões que vamos explorar na próxima Masterclass do Board Technoethics, no dia 30 de junho, às 19h30:
📚 Tema: Propósito Humano na Era dos Algoritmos: Religião, Espiritualidade e IA no Mundo Corporativo
⚠️ Acesso exclusivo para quem assina o Board Technoethics.
💳 R$ 97/mês
📌 Inclui Masterclass mensal, gravação, materiais de apoio e grupo exclusivo no WhatsApp.