Ferramentas de IA no direito: como elas podem (ou não) ajudar na interpretação jurídica? - Parte 3
O que o caso Snell v. United Specialty Insurance Company revela sobre o potencial e as limitações dos LLMs no direito
Nos dois artigos anteriores, mostrei (i) como o ChatGPT foi utilizado por um juiz do Tribunal de Apelações do 11º Circuito dos EUA para ajudá-lo na interpretação de um caso e (ii) apresentei vantagens e desvantagens do uso de modelos de linguagem de grande porte (LLMs) ao interpretar textos jurídicos.
Agora vem a questão: como juízes, advogados, acadêmicos e a comunidade mais ampla de IA podem tornar os LLMs mais valiosos para a atividade interpretativa?
Neste último artigo sobre a utilização de ferramentas de IA na interpretação jurídica, vou analisar como se pode maximizar a utilidade que os LLMs trazem para o intérprete.
Como nos dois textos anteriores, farei isso a partir das considerações do juiz Kevin Newson no caso Snell v. United Specialty Insurance Company.
Qual é a melhor forma de usar os modelos
Partindo da premissa interpretativa de Newson1, o principal e mais eficaz uso dos modelos é como um dicionário, isto é, eles ajudam a discernir como as pessoas comuns usam e entendem a linguagem.
Isso significa também que, em geral, os LLMs não são considerados como ferramentas que devem ser usadas para “aplicar um determinado significado a um conjunto particular de fatos para sugerir uma resposta a uma pergunta específica”.
Aliás, penso que, se usados dessa forma, os LLMs estariam substituindo a função de um juiz humano sem terem capacidade para tal. Isso porque humanos conseguem perceber uma gama de contextos muito mais ampla do que IAs.
Quando um juiz humano dá uma sentença, ele leva em consideração contextos culturais, sociais, econômicos e mesmo uma avaliação do comportamento das partes e testemunhas. Uma IA seria incapaz de avaliar todos esses aspectos.
O que fazer com os prompts
Newsom lembra que pesquisas indicam que os modelos podem ser sensíveis aos prompts do usuário e que os resultados que obtemos podem, portanto, variar conforme a pergunta ou o pedido que fazemos.
Sabemos, por exemplo, que as IAs precisam de contexto, de detalhes, para que as respostas saiam melhores. Mas também, dependendo da questão, não se recomenda colocar tudo de uma vez em um prompt. Por isso, em certas situações, também se recomenda fazer os prompts em etapas, o que costuma ser chamado de chain of thought.
Ethan Mollick recomenda definir uma persona para a IA para obter outputs melhores. Assim, ao invés de simplesmente perguntar algo, como no Google, posso pedir ao ChatGPT que responda como se fosse um advogado criminalista de alto nível ou um físico com PhD pela Caltech.
Recentemente, no entanto, com os modelos de reasoning como o o3 e o R1, surgiu a necessidade de fazer prompts de forma diferente do que são feitos quando a interação é com os modelos GPT.
Tudo isso evidentemente não é simples para profissionais do direito. Por isso, além de estarmos atentos às novidades, precisamos experimentar com a IA para entendermos como ela funciona.
Como diz Ethan Mollick, não existe um manual de instruções para utilizar uma IA generativa. Só descobrimos as coisas que ela pode fazer quando efetivamente interagimos com ela.
Como os outputs de uma IA podem variar conforme o prompt, Newsom recomenda que quem usa LLMs para auxiliar na interpretação deve testar diferentes prompts e — mais importante ainda — relatar os prompts que utilizam e a variedade de resultados que obtêm.
Além disso, recomenda-se consultar múltiplos modelos para garantir que os resultados sejam consistentes.
Como lidar com os outputs
Como os LLMs fazem julgamentos probabilísticos e preditivos sobre a linguagem, pode haver variação, especialmente em temas ambíguos ou que envolvem diferentes interpretações.
Newsom observa que as perguntas que ele fez (sobre o termo landscaping) foram feitas para obter uma resposta apenas: “em particular, pedi uma única definição de landscaping e, separadamente, se a instalação de um trampolim embutido se qualificava”.
Na verdade, no entanto, pelas características dos LLMs ditas acima, se você perguntar várias vezes se a instalação de um trampolim se enquadra no conceito de landscaping, as respostas podem variar.
Daí a importância de tentarmos de alguma forma medir a consistência das respostas que recebemos quando usamos essas IAs na interpretação jurídica.
A esse respeito, Newsom cita duas práticas que me parecem interessantes:
pesquisadores que consideraram como os LLMs poderiam ser usados para interpretar contratos sugeriram que os usuários busquem não apenas respostas, mas também níveis de confiança. Assim, por exemplo, um LLM pode revelar que sua previsão sobre o significado de uma cláusula é alta ou, em contraste, apenas ambígua.
podemos fazer a mesma pergunta a um LLM várias vezes e observar a porcentagem de casos em que ele concorda que, por exemplo, a instalação de um trampolim embutido é landscaping.
O sentido da palavra e a passagem do tempo
Segundo a corrente adotada por Newsom, “as palavras devem receber o significado que tinham quando o texto foi adotado.” Trata-se do originalismo, que se aplica ao texto constitucional e às demais normas jurídicas, bem como aos instrumentos privados como contratos e apólices de seguro.
Assim, quando em um caso se tem como questão relevante o que um termo específico significava no passado — como em 1787, 1868 ou 1964 — passa a ser importante para quem utiliza um LLM no auxílio do processo interpretativo receber uma informação clara sobre o sentido preponderante de uma palavra conforme a época.
Por isso, observa Newsom, “seria extremamente útil—se já não for possível—que engenheiros de IA desenvolvessem uma maneira de limitar as consultas a períodos específicos”.
Essa questão temporal tem uma importância fundamental para o textualismo, mas mesmo em um modelo diferente como o do Brasil pode haver repercussões importantes para a interpretação. Afinal de contas, lidar com o sentido de uma norma ao longo do tempo é uma necessidade presente em qualquer ordenamento jurídico.
Conclusão
Como será o futuro das profissões e, em especial, das profissões jurídicas? Acredito que será um futuro em parceria com as IAs, no sentido de que quando realizarmos nossas atividades profissionais, faremos isso, em maior ou menor grau, com a assistência da máquina.
Já há indicativos hoje de que isso vem acontecendo em níveis importantes. Estamos apenas no início do processo. No futuro, portanto, a tendência é que nossa interação com IAs seja maior, não menor, especialmente se considerarmos que os modelos vão melhorar ao longo do tempo.
Em um cenário como esse, é crucial entendermos como podemos nos valer da tecnologia em nosso benefício.
Se, como vimos, o elemento humano é — pelo menos até aqui e acredito que continuará assim — insubstituível na interpretação do direito, mas, ao mesmo tempo, as IAs podem nos fornecer uma ajuda valiosa, cumpre pensarmos como podemos utilizar os LLMs da melhor forma possível.
Nesse sentido, as considerações de Gavin Newsom sobre o potencial e as limitações dos LLMs na interpretação jurídica fornecem uma ajuda valiosa para quem busca uma boa utilização da tecnologia.
De que as palavras e expressões em normas jurídicas devem ser compreendidas em seus significados comuns e cotidianos.
Meu curso online e gratuito “IA em Ação: 12 Casos Reais de Riscos Éticos e Jurídicos" já está disponível.
O curso busca mostrar como a inteligência artificial impacta nossa sociedade com uma abordagem prática e direta.
Abordo temas como:
✅ Como algoritmos de precificação afetam mercados.
✅ Os desafios éticos e jurídicos do reconhecimento facial.
✅ Os impactos de deepfakes e IA generativa em decisões públicas e privadas.
E muitos outros.
💡 Totalmente gratuito. Certificado incluído.
👉Inscreva-se aqui