O Primeiro Tratado Internacional de IA: como o acordo entre EUA, Europa e outras democracias pode moldar o futuro da tecnologia
Uma análise dos principais pontos do acordo histórico assinado por países democráticos
Já temos o primeiro tratado internacional sobre inteligência artificial do mundo: o Framework Convention on artificial intelligence and human rights, democracy, and the rule of law. Ele foi assinado no dia 05 de setembro por, até agora, os seguintes países: Andorra, Geórgia, Islândia, Noruega, República da Moldávia, São Marino, Reino Unido, Israel, Estados Unidos e os países que integram a União Europeia.
O tratado foi elaborado pelos 46 Estados-membros do Conselho da Europa, com a participação de Estados observadores: Canadá, Japão, México, Santa Sé e Estados Unidos da América, bem como a União Europeia, e um número significativo de Estados não-membros: Austrália, Argentina, Costa Rica, Israel, Peru e Uruguai.
Além disso, a elaboração do documento contou com a participação de diferentes stakeholders: 68 representantes internacionais da sociedade civil, academia, indústria e várias outras organizações internacionais.
Neste artigo, apresentarei os pontos principais desse tratado, além de comentários sobre os impactos que suas normas podem trazer para o desenvolvimento e a implantação da IA no mundo, em especial nas democracias ocidentais.
Os signatários do Framework Convention on artificial intelligence devem respeitar princípios fundamentais válidos para todo o ciclo de vida dos sistemas de IA, assim como estabelecer remédios processuais, salvaguardas e medidas de gerenciamento de risco e impacto. Vejamos cada um desses elementos.
Princípios relacionados às atividades dentro do ciclo de vida dos sistemas de inteligência artificial
O tratado traz uma lista de princípios já suficientemente conhecidos dentro da governança de IA e que estão presentes em diversos documentos e normas (já escrevi bastante sobre isso, por exemplo, aqui e aqui). Eles são a base a partir da qual se espera construir uma inteligência artificial em conformidade com os direitos humanos, a democracia e o Estado de Direito.
Dignidade humana e autonomia individual.
Igualdade e não discriminação.
Respeito à privacidade e proteção de dados pessoais.
Transparência e supervisão.
Accountability e responsabilidade.
Confiabilidade.
Inovação segura.
Como certos usos da inteligência artificial podem prejudicar a dignidade humana e os direitos que derivam dela, bem como a democracia e o Estado de Direito, esses princípios são colocados como balizas a fim de evitar que a tecnologia saia dos trilhos.
A Convention também traz regras específicas voltadas para os direitos das crianças e das pessoas com deficiência, cujas necessidades e vulnerabilidades devem ser levadas em consideração pelos Estados-parte.
Outra regra importante é a de que cada Parte deverá encorajar e promover alfabetização digital adequada e habilidades digitais para todos os segmentos da população, incluindo habilidades específicas de especialistas para aqueles responsáveis pela identificação, avaliação, prevenção e mitigação de riscos apresentados por sistemas de inteligência artificial.
O letramento digital voltado para a inteligência artificial é uma ferramenta essencial para lidarmos de maneira democrática com os problemas que essa tecnologia nos coloca, protegendo direitos como liberdade de expressão e de acesso à informação. Se só há democracia com indivíduos autônomos, que não sejam tutelados por um poder central, é preciso ensinar esses indivíduos a utilizar a tecnologia de maneira adequada aos ideais de busca pela verdade, pensamento crítico e liberdade de opinião que caracterizam as sociedades democráticas.
Remédios processuais e salvaguardas
Aqui temos medidas para fazer valer o direito das pessoas de obter informações adequadas sobre as IAs que podem afetar seus direitos e interesses, bem como disponibilizar meios para que elas possam requerer providências contra eventuais abusos. São coisas como:
documentar as informações relevantes sobre os sistemas de IA e seu uso e torná-las disponíveis para as pessoas afetadas;
fornecer informações que sejam suficientes para permitir que as pessoas interessadas contestem a(s) decisão(ões) tomadas por meio do uso do sistema ou com base substancial nele, e contestem o próprio uso do sistema;
possibilidade efetiva de apresentar uma reclamação às autoridades competentes;
fornecer garantias processuais eficazes, salvaguardas e direitos às pessoas afetadas quando um sistema de inteligência artificial impacta significativamente o gozo de direitos humanos e liberdades fundamentais;
fornecimento de aviso de que se está interagindo com um sistema de inteligência artificial e não com um ser humano.
Medidas de gerenciamento de risco e impacto
Essas medidas são os instrumentos que podem ser usados para concretizar os princípios vistos acima. Vejamos quais são elas.
Realizar avaliações de risco e impacto (real e potencial) sobre os direitos humanos, a democracia e o Estado de Direito, de maneira iterativa.
Estabelecimento de medidas suficientes de prevenção e mitigação como resultado da implementação dessas avaliações.
Elaborar documentação de riscos, impactos reais e potenciais e a abordagem de gerenciamento de riscos.
Considerar, quando apropriado, as perspectivas das partes interessadas relevantes, em particular pessoas cujos direitos podem ser impactados.
Exigir, quando apropriado, testes de sistemas de inteligência artificial antes de disponibilizá-los para o primeiro uso e quando forem significativamente modificados.
Possibilidade de as autoridades introduzirem banimento ou moratórias em determinadas aplicações de sistemas de IA, que se mostrem incompatíveis os direitos humanos, a democracia ou o Estado de Direito.
A quem a Convenção se aplica?
As regras valem tanto para entes públicos quanto para pessoas privadas que utilizarem sistemas de IA. Ao regulamentar o cumprimento dos princípios e obrigações pelo setor privado, os Estados-Parte podem optar por se tornarem diretamente obrigados pelas disposições da Convenção ou, alternativamente, editar normas voltadas para cumprir com as disposições do tratado.
É importante notar o que fica de fora do escopo do tratado:
atividades relacionadas à proteção de interesses de segurança nacional, embora os Estados devam garantir que tais atividades respeitem o direito internacional e as instituições e processos democráticos;
assuntos de defesa nacional;
atividades de pesquisa e desenvolvimento, exceto quando o teste de sistemas de IA possa ter o potencial de interferir com os direitos humanos, a democracia ou o Estado de Direito.
Conclusão
Excluir interesses de segurança e de defesa nacional da Convenção é provavelmente um dos fatores que viabilizaram a adesão desse número significativo de países. Afinal de contas, como a IA é cada vez mais apontada como um elemento definidor da geopolítica do século XXI, dificilmente uma nação se comprometeria com regras que ela sabe que seus inimigos ou concorrentes não adotariam.
Por outro lado, essa escolha deixa sem solução um dos maiores riscos que o desenvolvimento da IA coloca: o uso da tecnologia para fins militares, em especial nas armas autônomas. O risco é de que uma corrida armamentista de IA entre potências rivais acabe causando um acidente com potencial de mortalidade em massa.
Mas é interessante também notar os países signatários desse tratado. Eles estão alinhados em torno dos valores democráticos, formando um bloco que se contrapõe axiologicamente a países autocráticos, como China e Rússia.
No livro Four Battlegrounds: Power in the Age of Artificial Intelligence, Paul Scharre pergunta de que modo, diante do aparente sucesso obtido por medidas tomadas de cima para baixo, a alternativa democrática poderia ser bem-sucedida. Ele afirma que o pluralismo das democracias pode ser uma força, desde que elas se unam em torno de políticas que protejam a privacidade e a liberdade e que possam ser exportadas globalmente. O tratado analisado aqui parece ser uma estratégia interessante nesse sentido.
WORKSHOP FRAMEWORKS DE GOVERNANÇA DE IA [ÚLTIMA EDIÇÃO DE 2024]
Dias 15 e 16/10/2024 (3ª e 4ª feira), das 19h30 às 21h30, André Gualtieri e Nuria López vão estar online e ao vivo em um workshop exclusivo que vai apresentar quatro dos principais Frameworks de IA do mercado (UE, ICO, NIST e OCDE).
Serão dois dias de muito conteúdo aprofundado e prático sobre como esses Frameworks podem ajudar você a construir a Governança de IA na sua empresa.
As vagas são limitadas, então clique aqui para se inscrever já.
O quanto o Brasil participa desde debate?