Inteligência Artificial Generativa e três riscos para o consumidor
As peculiaridades da IA generativa trazem novos desafios para o direito do consumidor
Ainda estamos assimilando as novidades, os impactos e os desafios trazidos pela IA generativa. A rapidez com que a tecnologia avança é um problema também para quem quer regulá-la. O AI Act europeu, por exemplo, foi pensado antes do boom da IA generativa.
A Europa levou tempo para discutir como o AI Act deveria regular a IA que realiza tarefas como reconhecimento facial, reconhecer compras de cartão de crédito fora do padrão ou fazer o score de crédito de alguém. Mas assim que o texto foi finalizado, explodiu o uso da IA generativa, um tipo de IA diferente.
Ela é diferente porque enquanto a IA estreita que conhecíamos realizava apenas uma tarefa, a IA generativa é capaz de realizar várias tarefas, como acontece com o ChatGPT. Isto tem sido chamado por alguns de IA de propósito geral (general purpose AI).
O PL 2338/2023, o projeto de marco legal da IA no Brasil menciona esse conceito, mas não o define.
Esse documento do Future of Life Institute conceitua esse tipo de IA da seguinte forma:
“Os sistemas de IA de propósito geral são sistemas que têm uma ampla gama de usos possíveis, tanto intencionais quanto não pretendidos pelos desenvolvedores. Eles podem ser aplicados a muitas tarefas diferentes em vários campos, muitas vezes sem modificações e ajustes substanciais”.
Os grandes modelos de linguagem como o GPT-4 são o maior exemplo disso: eles são usados para diferentes tarefas como escrever textos para diferentes propósitos e de diferentes estilos, resumir documentos, gerar conteúdos visuais e gerar código de programação.
Assim, um único sistema de IA de propósito geral pode ser usado como base para diferentes aplicações nos mais diferentes setores como saúde, finanças, educação etc. Temos portanto o uso desses sistemas como infraestrutura de aplicativos que fornecem serviços aos consumidores. Isso já é uma realidade hoje e se tornará cada vez mais comum.
Isso, é claro, traz uma série de questões que interessam aos consumidores, pois têm o potencial de afetar seus direitos e interesses protegidos no Código de Defesa do Consumidor e em outras legislações.
Alguns riscos
Este documento do Conselho de Consumidores da Noruega menciona alguns riscos importantes que a IA generativa traz para os consumidores.
Walled Gardens
A IA generativa favorece que plataformas digitais sejam transformadas num ambiente que desestimula, que torna desnecessária ou difícil a saída do usuário, um walled garden.
Um exemplo disso é o Snapchat que incluiu no seu chatbot de IA as funções de recomendar restaurantes e receitas, o que reduz a necessidade dos consumidores de recorrer a outros serviços, como mecanismos de busca tradicionais.
O ocidente ainda não desenvolveu um, mas a China tem o WeChat, o “aplicativo de tudo”, ou seja, nele você consegue fazer tudo que hoje faz usando diferentes aplicativos. Muitas empresas têm mirado esse exemplo, criando apps que integrem tantas funções e finalidades quanto possível.
O risco disso é dificultar a entrada de novos competidores, concentrando poder nos atores já estabelecidos, o que pode causar prejuízos ao mercado de consumo (art. 4, VI, CDC).
Opacidade e falta de accountability
Se o prestador de serviços não tem clareza sobre os dados e o funcionamento do modelo de IA generativa que serve como infraestrutura do app que ele oferece, a explicação do output para o consumidor fica prejudicada. Quanto maior transparência, melhores as condições para se fornecer uma explicação.
Além disso, os grandes modelos de linguagem têm uma tendência de produzir conteúdo que pareça convincente e correto, mas que pode ser factualmente incorreto. Isso pode trazer efeitos prejudiciais para os usuários de apps que usam geradores de texto para aconselhamentos de modo geral.
O setor financeiro, por exemplo, pode enfrentar esse risco. A Klarna, uma fintech sueca, anunciou a integração do ChatGPT em seus serviços para fornecer uma “experiência altamente personalizada”.
Mas no caso de discussões sobre recomendações erradas e prejuízos causados pelo sistema, a acountability e a explicação do resultado para os consumidores se torna um problema cada vez maior quanto maior também for a opacidade.
Personificação de modelos de IA e manipulação de sentimentos
Os modelos de IA muitas vezes são projetados para simular padrões, comportamentos e emoções humanas. Como temos uma tendência para antropomorfizar as coisas, isso pode fazer com que as pessoas atribuam sentimentos reais a uma máquina e invistam tempo, dinheiro e emoções num “relacionamento” com ela.
Isso traz o risco da manipulação do sentimento das pessoas e, por consequência um risco de danos psicológicos, especialmente de pessoas que podem se encontrar em situação de vulnerabilidade emocional. Por essa razão, há a proposta de uma política de design de alinhamento emocional para que os sistemas de IA deixem claro que não têm emoções.
Meu novo curso está lançado! O curso explica a inteligência artificial e seus riscos jurídicos e éticos usando 12 casos de aplicação dessa tecnologia, selecionados por mim nos últimos meses.
Abordo temas como algoritmos de pricing, reconhecimento facial, uso de IA para demissão de funcionários, apps que usam o ChatGPT, apps que usam a IA generativa para criar relacionamentos digitais, uso de IA generativa para cometer fraudes e o debate sobre IA generativa, direitos autorais e scraping.
As inscrições podem ser feitas por esse link.
Há algum tempo eu queria fazer um curso que explica a IA de uma maneira prática e dinâmica. O resultado está aí. Tudo foi pensado com muito cuidado e carinho. Espero que vocês gostem! 🙂