Inteligência artificial responsável: por que a governança importa
Entendendo as perspectivas e os desafios da governança de inteligência artificial
A inteligência artificial não é uma tecnologia qualquer. A IA foi recentemente avaliada por Ian Bremmer e Mustafa Suleyman como a “força mais formidável e potencialmente definidora desta era”.
Como uma tecnologia de propósito geral, a IA se espalha pelos mais diferentes setores da atividade humana e afeta nossa vida nas suas diferentes dimensões: econômica, política, social, pessoal.
A integração da IA em nossa vida já é uma realidade, embora a maior parte das pessoas não saiba disso. As pesquisas que fazemos no Google, as redes sociais que utilizamos, os serviços de streaming que usamos para nos divertir, as propagandas que recebemos pela Internet, o nosso score de crédito que é consultado quando precisamos fazer alguma operação financeira são exemplos da presença da IA em nossa vida. Com o tempo, essa integração se tornará ainda maior e, pelo menos para alguns, um assunto mais perceptível.
É por essa dimensão que essa tecnologia adquiriu em nossa época que o tema da sua governança passou a ser um assunto cuja discussão vem crescendo tanto. Os papers sobre governança de IA vem aumentando consideravelmente nos últimos anos. No dia 26/10, tive a oportunidade de debater governança de IA com os amigos Alexandre Zavaglia e Gustavo Xavier, dois grandes especialistas no assunto. Nossa conversa pode ser vista no Youtube.
Do final de 2022 para cá, o debate sobre a governança de IA ganhou um novo impulso com o lançamento de modelos de IA generativa como o ChatGPT, o Bing, o Bard e muitos outros, que tem sido chamados de foundation models. De acordo com Bommasani et al., podemos defini-los como “qualquer modelo treinado com uma quantidade enorme de dados (…) e que pode ser adaptado a uma ampla gama de tarefas posteriores”.
A capacidade desses modelos de desempenhar uma diversidade de tarefas sem serem explicitamente treinados para realizarem muitas delas permite sua rápida adoção por consumidores e empresas, o que evidentemente aumenta o risco inerente ao uso da tecnologia.
Já estamos vendo uma proliferação de apps que utilizam o ChatGPT e similares para oferecer serviços ao consumidor.
As empresas podem utilizar modelos de IA generativa para acelerar tarefas que antes eram realizadas por humanos. No setor financeiro, por exemplo, a IA generativa pode ser utilizada para:
qualquer tarefa que envolva produção de texto (contratos, comunicação com investidores);
geração de cenários financeiros;
geração automática de relatórios;
auxiliar com business intelligence e insights estratégicos.
Esse uso tão disseminado da IA intensificou a preocupação com a sua governança, como temos visto nos últimos meses.
Ferramentas de governança de IA
O desenvolvimento das ferramentas utilizadas na governança de IA pode se beneficiar da experiência acumulada em outras indústrias como a financeira e a de aviação. Quem conhece o compliance de LGPD também vai identificar muitas dessas ferramentas, adaptadas ao contexto da IA.
Assim, de acordo com Roberts et al., podemos listar algumas ferramentas que podem ser úteis para realizar a governança da IA. Vejamos:
Como eu disse acima, vemos ferramentas similares no campo da LGPD: o Data Protection Officer, o relatório de impacto à proteção de dados pessoais (RIPD), a necessidade de documentação das operações de tratamento, bem como a utilização de frameworks e o treinamento de pessoal. Temos, portanto, no campo da governança de IA a necessidade de estruturar, para o seu contexto próprio, diversas ferramentas que já são conhecidas em matéria de compliance.
A governança global de IA
Acho imprecisa e exagerada a analogia da IA com a questão atômica que tem sido feita por pesquisadores influentes como Geoffrey Hinton e Yoshua Bengio. Prefiro a posição mais equilibrada e menos alarmista de pessoas como Yann LeCun e Andrew Ng.
Mas assim como uma governança atômica global foi estruturada, é preciso também estruturar uma governança global de IA. É importante, no entanto, entender que esta governança deve levar em conta as caraterísticas próprias da IA e não simplesmente copiar o modelo centralizado da Agência Internacional de Energia Atômica (AIEA) da ONU.
Como afirmam Roberts et al., é muito difícil criar um órgão internacional centralizado responsável pela governança da IA.
“O tipo de organismos internacionais oferecidos como exemplos de governança da IA foram estabelecidos através de procedimentos diplomáticos formais, em circunstâncias geopolíticas e institucionais muito diferentes. A AIEA foi criada em 1957, durante um período de proliferação nas instituições internacionais, e só ganhou poderes substantivos após a conclusão do Tratado de Não Proliferação em 1968. (…) Os problemas contemporâneos de cooperação tornam mais difícil o estabelecimento de instituições internacionais formais. Quando combinados com o nascimento dos esforços de governança internacional para a IA, haverá dificuldades significativas na emulação destes modelos. Além disso, o sucesso do desenvolvimento institucional e do acordo em curso no controle de armas nucleares baseou-se no medo do risco existencial, algo que não é pacífico no caso da IA, enfraquecendo os incentivos à cooperação”.
O mesmo raciocínio pode ser feito para pensarmos a governança de IA a nível nacional. Seria mais adequado concentrar tudo numa só agência como vemos na proposta espanhola, ou seria melhor que cada órgão setorial participasse dos esforços de governança da IA dentro da sua área de atuação? Esse debate já está se dando também no Brasil.
Analisando apenas a governança global Roberts et al. afirmam que o modelo mais adequado é o decentralizado, que aproveite e fortaleça as estruturas já existentes.
“Do ponto de vista democrático, um modelo descentralizado facilita a consideração de mais questões e stakeholders. Além disso, um modelo policêntrico permite a contribuição a diferentes níveis de governança e não apenas de organizações internacionais. Isto é particularmente importante dado o problema de legitimidade que afeta as organizações internacionais em termos de apoio dos cidadãos”.
Essa governança global de IA é constituída por iniciativas intergovernamentais e privadas que podem ser utilizadas, conforme o contexto, pelas organizações brasileiras empenhadas em estruturar sua própria governança. São documentos como:
os Princípios de IA da OCDE;
as Recomendações sobre Ética de IA da UNESCO;
as Recomendações do Global Partnership on AI (GPAI);
normas internacionais de padronização, como as normas ISO e NIST;
instituições de governança criadas pela indústria, como a Partnership on AI -PAI;
iniciativas privadas ad hoc de organizações sem fins lucrativos, como o Future of Life Institute.
Por que a governança de IA importa?
É certo que há dificuldades no estabelecimento da governança de IA. Questões como a definição do que se enquadra ou não como IA, que tipo de problemas da IA devemos priorizar no enfrentamento, como estabelecer um critério adequado de justiça num contexto de enorme pluralismo de valores exigem longo debate entre especialistas de diferentes áreas do conhecimento.
Mas também é certo que a governança de IA importa muito e por muitas razões.
A tecnologia traz um potencial de dano em larga escala. Já temos muitos exemplos disso em casos que envolvem, por exemplo, reconhecimento facial, redes sociais ou benefícios governamentais que foram negados a milhares de pessoas por conta de uma falha do sistema de IA.
Existe a necessidade da construção de uma cultura de IA responsável. Isso só pode ser feito dentro das organizações por um programa de treinamento, que é uma parte importante dos esforços de governança.
Conformidade com a futura legislação específica sobre IA. A regulação dessa tecnologia é uma tendência mundial. Mais cedo ou mais tarde a regulação — que desejamos que seja equilibrada e racional — virá. Isso cria a necessidade das organizações estabelecerem práticas de adequação à lei para evitar penalidades.
Fortalecimento da confiança das pessoas na tecnologia. O sucesso da IA também depende de construir um ambiente em que as pessoas tenham um nível razoável de confiança na tecnologia. A construção dessa confiança é uma consequência palpável da preocupação com medidas de governança.
Meu novo curso está lançado! O curso explica a inteligência artificial e seus riscos jurídicos e éticos usando 12 casos de aplicação dessa tecnologia, selecionados por mim nos últimos meses.
Abordo temas como algoritmos de pricing, reconhecimento facial, uso de IA para demissão de funcionários, apps que usam o ChatGPT, apps que usam a IA generativa para criar relacionamentos digitais, uso de IA generativa para cometer fraudes e o debate sobre IA generativa, direitos autorais e scraping.
As inscrições podem ser feitas por esse link.
Há algum tempo eu queria fazer um curso que explica a IA de uma maneira prática e dinâmica. O resultado está aí. Tudo foi pensado com muito cuidado e carinho. Espero que vocês gostem! 🙂