Inteligência artificial: ameaça ou solução ao cenário jurídico?
A inteligência artificial (IA) tem desempenhado um papel cada vez mais significativo em diversos setores, incluindo no campo jurídico. No Brasil, o uso da IA tem gerado tanto entusiasmo quanto preocupações, apresentando desafios éticos, legais e práticos, que precisam ser cuidadosamente considerados.
O parágrafo anterior pode aparentar ter sido elaborado por uma mente humana. No entanto, referido trecho foi desenvolvido unicamente pelo ChatGPT, uma dentre as diversas ferramentas de IA que surgiu nos últimos anos. Em meio a tantas inovações – algumas inimagináveis até pouco tempo atrás – surgem questionamentos como: a IA substituirá os profissionais do direito? A IA pode ser considerada uma ameaça ou solução? Como fazer uso dessa inovação de maneira proveitosa e, ao menos, diminuir as adversidades que acompanham tal progresso?
A rotina das pessoas nos dias atuais já é altamente automatizada. O primeiro ato quando se acorda é olhar a tela do celular, enquanto a Alexa informa as notícias diárias e um robô de limpeza tira o pó da casa. Para ir até o trabalho se utiliza o GPS que mostra o caminho de menor trânsito, por algum dos diversos aplicativos que fazem esse serviço. Como será em julho de 2024? Julho de 2034? Não há como saber. O que se sabe é que a IA vem progredindo de maneira avassaladora, e, em um ano, tudo pode mudar. Se até a Elis Regina a IA recriou - ou ao menos tentou - o que será do futuro?
No cenário jurídico, não é diferente: os avanços, inovações, dúvidas e incertezas também surgem abruptamente.
Softwares jurídicos vêm sendo utilizados por operadores do direito há muito tempo, e, atualmente, deixaram de ser simples ferramentas de suporte administrativo. A IA vem sendo empregada cada vez mais, automatizando tarefas rotineiras que podem melhorar a eficiência do sistema jurídico, reduzindo drasticamente o gasto de tempo em atividades repetitivas.
A IA realiza pesquisas de jurisprudência, faz análises de dados, aponta riscos, equaliza métricas, auxilia na tomada de decisões com base em algoritmos e opera diversas atividades que demandam muito tempo, possibilitando que os operadores do direito se concentrem em atividades complexas e de maior valor agregado.
Ainda, a IA pode aprimorar o gerenciamento de informações e o fluxo de trabalho, organizando documentos, facilitando a colaboração entre equipes e fornecendo acesso rápido a informações relevantes. Além de tudo isso, a IA pode identificar padrões e aprender com a experiência.
As ferramentas de IA que vêm surgindo são as mais diversas. Recentemente, passou a ser divulgado o uso do chatadv, que promete uma função que há dois ou três anos, seria inimaginável: criação e revisão de petições e contratos, elaboração de propostas de honorários advocatícios, correção e análise de textos jurídicos. O aplicativo promete até entregar a análise do caso e a proposta ao cliente, de acordo com suas expectativas e requerimentos.
Da análise dessas diversas possibilidades se extrai, com tranquilidade, que os benefícios ao se empregar a IA no campo jurídico são imensuráveis. Mas os problemas também acompanham o progresso, iniciando pelas questões éticas, de privacidade das pessoas e de proteção dos dados, além de eventuais inconsistências dos dados fornecidos. Até que ponto as ferramentas de IA são confiáveis?
Para Kai Fu-Lee (Inteligência artificial: como os robôs estão mudando o mundo, a forma como amamos, nos comunicamos e vivemos. Kai-Fu Lee; tradução Marcelo Barbão. – 1. ed. – Rio de Janeiro: Globo Livros, 2019, p. 27), os algoritmos de IA bem-sucedidos demandam três aspectos: big data, poder de computação e o trabalho de engenheiros de algoritmos. Os dados são o ponto central, eis que sua quantidade é decisiva para determinar a potência e a precisão de um algoritmo.
Com isso, tem-se que a proteção dos dados deve ter especial atenção quando envolve IA, vez que o uso desta tecnologia requer o processamento e o armazenamento de informações sensíveis. Nesse sentido, é necessário garantir que os dados sejam tratados de forma segura e em conformidade com as regulamentações aplicáveis, como a Lei Geral de Proteção de Dados Pessoais (LGPD). É imprescindível que a Lei seja observada em sua integralidade, com a aplicação das sanções àqueles que a contrariem.
No entanto, a aplicação efetiva dessas sanções tem sido tímida no Brasil. A Autoridade Nacional de Proteção de Dados (ANPD) aplicou sua primeira multa somente quase três anos após a vigência da LGPD. Isso demonstra a necessidade de maior rigor e celeridade na fiscalização e punição de infrações relacionadas à proteção de dados.
Ainda não há e possivelmente não haverá regulamentação jurídica exaustiva acerca dos temas que envolvam a IA, considerando que dificilmente o direito conseguirá alcançar todas as inovações tecnológicas que vão surgindo.
Por essa razão, princípios éticos vêm sendo considerados como referência para orientar o avanço e a utilização da inteligência artificial. Para Caitlin Mulholland e Isabella Frajhof (Entre as leis da robótica e a ética: regulação para o adequado desenvolvimento da inteligência artificial. In: Direito digital e inteligência artificial: diálogos entre Brasil e Europa. Coordenado por Felipe Braga Netto, São Paulo: Editora Foco, 2021, pg. 72), apesar de a utilização de princípios éticos não conter uma natureza coercitiva e sancionatória típica da regulação jurídica, “permite a criação de guias deontológicos que serão constituídos como a razão prima facie e o fundamento para o desenvolvimento e implementação da IA”.
Foi com esse entendimento que União Europeia, IBM, Microsoft, entre outras instituições, elaboraram guias de recomendações éticas para a implementação de IA em seus organismos. Além da ética e da proteção dos dados, também é necessário que haja transparência dos algoritmos utilizados na IA, para que as decisões tomadas garantam a imparcialidade e equidade no sistema jurídico, bem como possa haver responsabilização em caso de erros ou danos causados pela IA.
Também nesse sentido dispõe o art. 20 da LGPD, que prevê a possibilidade de o titular dos dados solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses.
Com esses princípios respeitados e com a regulação da atividade sempre que possível, a IA pode ganhar cada vez mais força e legitimação no campo jurídico. Foi assim que a iFlyTek, empresa chinesa de tecnologia da informação, se destacou na área de IA, construindo ferramentas e executando um programa piloto que usa dados de casos/processos anteriores para ajudar os juízes nas tomadas de decisões.
Com intuito similar, considerando que há grande disparidade nos índices de condenação dos Estados Unidos com base na raça da vítima e do réu, o Estado de Wisconsin vem aprimorando um questionário conhecido como COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), que tem o propósito de determinar o grau de periculosidade dos condenados, com o auxílio de algoritmos.
Esses tipos de IA, segundo Kai Fu-Lee (p. 142), são “ferramentas que auxiliam um ser humano a tomar decisões informadas. Ao capacitar os juízes com recomendações orientadas por dados, elas podem ajudar a equilibrar a balança da justiça e corrigir os vieses presentes em juízes bem treinados”. E é esse um dos maiores desafios: desenvolver algoritmos confiáveis e justificáveis, que minimizem preconceitos ou tendências discriminatórias.
Ou seja, a utilização da IA pode diminuir o racismo, as alterações de humor e ocorrências da vida humana que podem causar disparidade em decisões judiciais. Entretanto, o contrário também pode ocorrer, considerando que algoritmos de IA são alimentados por dados históricos, que podem conter preconceitos implícitos, o que poderia resultar em decisões injustas e discriminatórias, da mesma forma que pode ocorrer com decisões humanas.
É indiscutível, portanto, a necessidade de que os dados fornecidos sejam imparciais, corretos e suficientes para que a ferramenta possa funcionar da forma esperada, sem apresentar dados incorretos ou lacônicos. Por outro lado, além da necessidade de proteção dos dados, respeito aos princípios éticos e legislação, transparência e utilização correta e suficiente dos algoritmos, outro ponto traz preocupações: a IA está prestes a substituir os operadores do direito?
Como já mencionado, a implementação da IA no sistema jurídico pode auxiliar em tarefas rotineiras e assim possibilitar que o tempo seja utilizado com questões que demandam análise, estratégia e estudo. Por outro lado, tal hipótese reduzirá a demanda por profissionais jurídicos em certas áreas.
Portanto, não deve se falar em substituição dos operadores do direito, mas em redução daquelas tarefas que podem ser otimizadas. Com isso, o tempo do profissional pode ser utilizado de forma mais inteligente, permitindo que se concentrem em tarefas de maior valor agregado e que requerem expertise e interpretação humana.
Em síntese, as possibilidades positivas com o implemento da IA são inúmeras. Entretanto, é necessário ter cautela. A IA tem o potencial de trazer avanços significativos para o cenário jurídico no Brasil, melhorando a eficiência e a acessibilidade à justiça. No entanto, é importante reconhecer e enfrentar as dificuldades e problemas associados à implementação da IA, para garantir que ela seja utilizada de forma justa, confiável e responsável, respeitando a legislação e princípios éticos.
*Artigo publicado originalmente no Migalhas: https://www.migalhas.com.br/depeso/391098/inteligencia-artificial-ameaca-ou-solucao-ao-cenario-juridico