A nova lei japonesa de IA rejeita o modelo europeu: o que isso revela sobre o futuro da regulação?
O que a nova lei japonesa de IA nos revela sobre alternativas regulatórias e o que isso pode ensinar ao Brasil
👋Olá! Bem vindos a mais uma edição de Ética, Direito e Inteligência Artificial, por André Gualtieri!
Aqui vão algumas maneiras pelas quais eu posso te ajudar:
Curso de Governança de IA: ensino, na prática, como estruturar a Governança de IA em organizações
Board Technoethics: comunidade dedicada à análise profunda das tendências tecnológicas emergentes e seus impactos no mercado e nas organizações
IA em Ação: 12 Casos Reais de Riscos Éticos e Jurídicos: curso gratuito sobre impactos positivos e negativos da IA em diversas áreas e na sociedade
O Japão segue outro caminho
O Japão acabou de promulgar uma nova lei1 dedicada à promoção da pesquisa e do uso de tecnologias de inteligência artificial. O texto estabelece diretrizes gerais, define responsabilidades dos diversos atores (governo, setor privado, universidades, cidadãos) e cria uma Estratégia Nacional de IA, coordenada por uma instância centralizada no âmbito do Gabinete do Primeiro-Ministro.
Os artigos 1 e 3 (objetivo e filosofia básica) deixam claro que o espírito da lei japonesa vai no sentido de posicionar a IA como uma tecnologia essencial ao desenvolvimento econômico e à segurança nacional, ao mesmo tempo em que se garante uma implementação ética, alinhada a normas internacionais, e uma coordenação interministerial.
É uma lei que busca fomentar a inovação, criar infraestrutura, formar profissionais e evitar riscos graves por meio da governança adequada do ecossistema — entendida aqui não como um sistema de obrigações ou sanções rígidas, mas como uma coordenação institucional entre governo, setor privado, universidades e sociedade civil, orientada por princípios éticos, planos estratégicos e diretrizes de transparência e responsabilidade.
Diretrizes e governança estabelecidas pela lei japonesa
Para compreender melhor os contornos dessa proposta, vale destacar dois pontos fundamentais:
Responsabilidades dos desenvolvedores e implementadores de IA:
A lei não impõe sanções ou obrigações, mas estabelece diretrizes para o bom desenvolvimento do ecossistema de IA japonês.
Empresas que desenvolvem ou usam IA são incentivadas a fazê-lo de maneira ética e eficiente, colaborando com os planos nacionais e locais.
Instituições de pesquisa devem promover a difusão de resultados e a formação de profissionais especializados.
A lei recomenda governança responsável, transparência e prevenção de riscos como o uso criminoso ou violações de direitos.
Estrutura de governança de IA criada pela lei:
Será instituída uma Estratégia de Inteligência Artificial, que servirá como base para orientar a futura Política Nacional.
A Estratégia é responsabilidade do Comitê Estratégico de Inteligência Artificial criado pelo Governo do Japão, composto pelo Primeiro-Ministro, ministros e outros representantes do alto escalão do governo. Ele tem autoridade para coordenar medidas interministeriais buscar cooperação de instituições públicas e privadas.
O Comitê vai estabelecer uma força-tarefa sobre estratégia de IA, que deve estar pronta até o fim deste ano.
A lei de IA japonesa se articula com outras legislações estratégicas, como a Lei de Ciência e Inovação e a Lei para a Sociedade Digital.
Comparações com o PL 2338/2023
Esse desenho institucional reflete uma concepção diferente de regulação. Vejamos alguns pontos:
Classificação de risco: o PL 2338 segue o modelo europeu e classifica sistemas de IA conforme o nível de risco (inaceitável, alto, baixo), com obrigações vinculadas. A lei japonesa não adota essa lógica: trata todas as aplicações de IA de forma homogênea, focando em diretrizes gerais, sem distinções entre tipos de risco.
Direitos dos afetados e proibições: o PL 2338 detalha proibições e assegura direitos como contestação e revisão humana em decisões automatizadas de alto risco. A legislação japonesa não inclui essas previsões específicas.
Governança e fiscalização: o PL cria o SIA (Sistema de Inteligência Artificial) com a ANPD como autoridade. Já o Japão estabelece o Comitê Estratégico de Inteligência Artificial no gabinete do Primeiro-Ministro, com função de coordenação nacional, mas sem autoridade sancionadora.
Fomento à inovação: ambas as legislações preveem medidas para incentivar a inovação, mas o Japão dá mais ênfase à criação de infraestrutura, planos nacionais, uso institucional da IA e formação de pessoal qualificado.
Sanções: o PL brasileiro prevê sanções administrativas, enquanto a lei japonesa não contém disposições específicas sobre punições.
O modelo japonês
Enquanto o PL brasileiro tende a ser mais prescritivo e detalhado, o Japão optou por uma regulação orientadora, que busca equilíbrio entre incentivo ao desenvolvimento tecnológico e responsabilidade ética.
O modelo japonês aposta em diretrizes éticas e poder de intervenção delegado ao Executivo apenas quando estritamente necessário. Em vez de criar uma estrutura regulatória com sanções diretas e avaliações obrigatórias, o Japão confia na colaboração voluntária, em especial com o setor privado, para implementar práticas de transparência e segurança.
Isso pode ser visto como uma tentativa de evitar entraves burocráticos e estimular o crescimento de startups e centros de P&D, com foco em competitividade internacional.
Essas distinções não passaram despercebidas por profissionais das áreas técnicas no Brasil, que viram com bons olhos a proposta japonesa. Para muitos, trata-se de uma abordagem mais amigável à inovação.
Ao mesmo tempo, com certeza surgirão críticas quanto à eficácia de diretrizes voluntárias diante de incidentes que violam direitos. Já imagino pessoas argumentando que a ausência de um aparato robusto estabelecido lei específica para a IA pode dificultar a contenção de riscos reais, sobretudo em áreas sensíveis como deepfakes, fraudes e desinformação.
Isso à parte, o Japão opta por posicionar sua legislação como uma estratégia culturalmente enraizada, voltada à interoperabilidade internacional e à liderança em normas técnicas globais.
Refletindo sobre o caminho brasileiro
Penso que a escolha de que caminho seguir precisa ser feita com base em uma análise cuidadosa dos aspectos fundamentais que caracterizam cada cultura, cada sociedade.
É mais do que certo que o Brasil não é o Japão. Assim, da mesma forma que devemos refletir sobre a adequação da proposta japonesa ao que pretendemos para a IA em nosso país, também precisamos considerar quais seriam os limites desse modelo por aqui. Trata-se, portanto, de um esforço analítico complexo.
Acho simplista dizer que agora precisamos todos seguir o Japão, da mesma forma que é simplista dizer que precisamos emular a Europa. A questão é evidentemente mais intricada do que isso.
Mas certamente o modelo japonês precisa ser seriamente avaliado por nós, justamente para evitar armadilhas que uma regulação excessivamente prescritiva — como a europeia — pode trazer ao ecossistema brasileiro de inovação em IA.
As críticas ao modelo baseado em risco
Essa abordagem contrasta com a do Projeto de Lei 2338 no Brasil, fortemente inspirado no AI Act europeu. Ambas as normas seguem um modelo de regulação baseado em risco, no qual aplicações de IA são classificadas em categorias (risco inaceitável, alto, baixo) e recebem, conforme sua classificação, diferentes obrigações legais.
O modelo baseado em risco se tornou um tipo de "padrão ouro" regulatório e começa a ser replicado em diversas partes do mundo. Mas ele também vem sendo criticado, como fez recentemente Luiza Jarovsky em um artigo contundente.
Embora ela destaque pontos importantes, outras análises também têm apontado limitações significativas nesse modelo, incluindo:
Ritmo acelerado da inovação tecnológica: a velocidade com que novas aplicações de IA são desenvolvidas pode tornar as classificações de risco rapidamente obsoletas, dificultando a eficácia da regulação.
Dificuldade na identificação de riscos emergentes: a abordagem baseada em categorias pré-definidas pode não capturar adequadamente riscos que surgem de combinações inesperadas de tecnologias ou de usos inovadores da IA.
Possibilidade de evasão regulatória: empresas podem adaptar seus produtos para se enquadrar em categorias de menor risco, evitando obrigações mais rigorosas, o que compromete a eficácia da regulação.
Desafios na implementação e fiscalização: a complexidade do modelo baseado em risco pode dificultar a implementação prática e a fiscalização efetiva, especialmente em contextos com recursos limitados.
Conclusão: qual caminho seguir?
Sob essa luz, a opção japonesa se destaca como uma tentativa de evitar os limites do modelo europeu. Em vez de classificar sistemas, o foco está em estruturar uma estratégia nacional robusta e coordenada.
A governança aparece como instrumento de coordenação institucional: embora a lei japonesa não imponha obrigações legais específicas aos desenvolvedores e implementadores de IA, ela estabelece diretrizes que promovem práticas desejáveis, como a transparência, a responsabilidade, a participação multissetorial e o alinhamento internacional. A expectativa é que, ao fomentar esses princípios, os riscos possam ser prevenidos antes de se manifestarem.
Isso não significa que a abordagem japonesa seja superior em todos os aspectos. Mas é uma experiência regulatória valiosa, especialmente para países como o Brasil, onde ainda se discute qual deve ser o modelo adotado.
Isso nos leva a uma questão fundamental: os modelos japonês e europeu são realmente conciliáveis? Aparentemente não: um se baseia em classificações legais e obrigações regulatórias, o outro em diretrizes voluntárias e coordenação institucional.
Cada um parte de uma filosofia regulatória distinta e carrega pressupostos diferentes sobre como fomentar inovação e proteger a sociedade.
Por isso, talvez o principal desafio para o Brasil não seja combinar esses modelos — mas fazer uma escolha consciente e fundamentada — entendendo os custos e benefícios de cada caminho à luz de nossa realidade social, econômica e institucional. Pensar a regulação da IA é, antes de tudo, pensar sobre o tipo de sociedade que queremos construir com a tecnologia.
A lei japonesa nos lembra que legislar sobre IA não é apenas definir o que pode ou não ser feito, mas criar as condições para que as escolhas certas sejam possíveis.
Ela representa uma aposta de que, no atual momento, a regulação da IA deve ser mais indutora do caminho do que limitadora: mais estimuladora do desenvolvimento do que punitiva ou restritiva. E faz isso por meio de uma governança centrada na articulação institucional e em princípios orientadores, e não na imposição de sanções ou obrigações.
Trata-se de uma confiança deliberada no poder da coordenação, da responsabilidade compartilhada e da construção coletiva de um ecossistema confiável de inovação.
Por que o Curso de Governança de IA é para você?
✅ Conteúdo ampliado e atualizado com novos frameworks e ferramentas.
✅ Mais tempo dedicado a atividades práticas.
✅ Materiais exclusivos, como planilhas e checklists.
✅ Espaço para interação e troca de experiências.
Detalhes do Curso:
📅 Aulas ao vivo nos dias:
09/06 (segunda-feira), das 19:30h às 21:30h
16/06 (segunda-feira), das 19:30h às 21:30h
23/06 (segunda-feira), das 19:30h às 21:30h
💻 Não consegue assistir ao vivo? Sem problemas!
As aulas ficam gravadas e disponíveis para você assistir quando quiser.
💰 Aproveite o preço especial de lançamento para inscrições realizadas até 26/05!
🔗 Inscrições abertas!
Contei com a ajuda de IAs para a melhor tradução possível do texto que se encontra em japonês. A lei está disponível no site oficial do governo japonês: https://laws.e-gov.go.jp/law/507AC0000000053. A consulta a este artigo: https://prospire-law.com/articles_internetit/25041001/ também foi bastante útil.
Já imaginou a Lei Brasileira sendo tratada e organizada pelo executivo como a do Japão?