A Disclosure do Uso de Inteligência Artificial pelas Partes em Procedimentos Arbitrais
A DISCLOSURE DO USO DE INTELIGÊNCIA ARTIFICIAL PELAS PARTES EM PROCEDIMENTOS ARBITRAIS
Bernardo Fico[1]
Fernanda Nemr[2]
Mariana Yamashita[3]
O uso da inteligência artificial (IA) nas atividades humanas suscita debates sobre suas vantagens em termos de eficiência e flexibilidade na execução das tarefas. Nesse contexto, a IA tem gerado discussões sobre seu impacto em diversas áreas do direito, inclusive na arbitragem, onde sistemas de tecnologia buscam atender, com êxito, diferentes necessidades de advogados, partes e árbitros. Naturalmente, esses usos levantam questionamentos acerca da transparência, equidade e confiabilidade do processo.
Assim, a disclosure do uso de IA — a revelação sobre uso de mecanismos automatizados pelas partes — emerge como um tema central, com implicações que se estendem desde a gestão processual até o grau de participação de sistemas de IA na tomada de decisão, na medida em que essas ferramentas podem ser utilizadas na elaboração de petições, análise de documentos, previsão de resultados e outras atividades relacionadas ao procedimento arbitral. Isso se deve tanto à necessidade de garantir que o procedimento arbitral transcorra de forma íntegra e leal quanto à preservação de princípios tradicionais, como imparcialidade e igualdade de armas.
A disclosure constitui um princípio fundamental na arbitragem e implica a divulgação de informações relevantes que possam influenciar a percepção de imparcialidade e a condução do procedimento. Tradicionalmente, árbitros e partes devem divulgar de maneira transparente relações que possam comprometer sua imparcialidade. No contexto da IA, a pergunta que surge, então, é se — e até que ponto — esse dever de revelar informações se estende ao uso de sistemas algorítmicos.
Diferentes sistemas de IA possuem capacidades distintas. Por isso, é importante reconhecer que nem toda ferramenta de IA tem o mesmo potencial de afetar a substância ou a condução do procedimento, fazendo com que IAs com capacidades distintas possam ser, e talvez devam ser, tratadas de maneira diferente. Um sistema de ferramentas algorítmicas que faz correções gramaticais possui risco de dano muito diferente de um que se proponha a resumir documentos relevantes, realizar levantamento de jurisprudência ou doutrina, ou produzir primeiras-minutas de manifestações.
De maneira simplificada, os sistemas de IA utilizados na arbitragem operam principalmente por meio de duas abordagens: sistemas baseados em regras e o aprendizado de máquina (machine learning). O primeiro utiliza comandos condicionais do tipo “se x, então y”, com base em conhecimento previamente inserido no sistema por especialistas humanos[4]. Por sua vez, o segundo consiste na capacidade dos algoritmos de aprender com dados históricos, extraindo padrões e ajustando seus comportamentos com o tempo[5].
Ao contrário dos sistemas baseados em regras, o aprendizado de máquina não depende da codificação manual de cada regra lógica, o que torna sua atuação mais adaptável, embora também mais suscetível aos vieses contidos nos dados de treinamento[6].
Dado que a arbitragem se baseia em princípios de flexibilidade e autonomia das partes, ferramentas de IA podem ser vistas como meio para agilizar procedimentos complexos. No entanto, sem transparência sobre essa utilização torna-se mais difícil controlar eventuais abusos, ineficiências ou até violações de equidade, por exemplo se o uso da IA na produção de provas potencialmente comprometer a confiabilidade dos resultados.
A questão do sigilo e da segurança dos dados também emerge como aspecto crítico, sobretudo quando a IA utilizada recorre a sistemas de armazenamento em nuvem que possam comprometer a confidencialidade do procedimento arbitral, o que reforça as propostas de disclosure em relação aos usos deste tipo de sistema.
Não obstante, um fator limitante é a inexistência de um sistema de precedentes vinculantes. Cada decisão arbitral vincula exclusivamente as partes do litígio, o que gera um conjunto de decisões díspares e frequentemente contraditórias. Além disso, a IA pode replicar — e até intensificar — preconceitos implícitos nos dados que a alimentam. Nota-se que a ausência de uma filtragem crítica pode transformar vieses humanos em padrões replicáveis pelas máquinas, comprometendo a equidade das decisões[7].
Outro ponto de atenção é a igualdade de armas, princípio essencial à arbitragem. O acesso desigual a ferramentas de IA pode criar desequilíbrios processuais, colocando uma parte em vantagem significativa sobre a outra na coleta de provas, na elaboração de argumentos e na previsibilidade de resultados. Além disso, a utilização dessas tecnologias suscita desafios na medida em que muitos códigos de ética jurídica ainda não oferecem diretrizes claras sobre o uso e a disclosure sobre o uso de IA, tornando essencial a adoção de boas práticas voluntárias pelas partes como um primeiro passo relevante, permitindo um controle mais efetivo sobre o impacto dessas tecnologias no procedimento.
Em algumas situações, contudo, tribunais arbitrais poderão exigir informações adicionais sobre a forma como a IA foi empregada na formulação de argumentos ou na análise de evidências, sendo que o tribunal arbitral pode solicitar esclarecimentos adicionais sempre que houver suspeita de uso inadequado da tecnologia, assegurando que o processo transcorra com lisura.
Outra possibilidade é a adoção de convenções arbitrais que prevejam cláusulas específicas sobre disclosure, estabelecendo diretrizes claras sobre a obrigação de revelar o emprego dessas ferramentas, ou a atualização dos códigos de conduta arbitrais para refletir os desafios impostos pela crescente adoção da IA na prática jurídica.
A disclosure do uso de Inteligência Artificial pelas partes em procedimentos arbitrais é uma questão emergente, que reflete a confluência entre inovação e integridade processual. Se, por um lado, a IA pode trazer eficiência, rapidez e precisão à arbitragem, por outro, a opacidade no uso dessas ferramentas pode afetar a confiabilidade e a equidade do procedimento.
Diante disso, partes, advogados e árbitros precisam adotar práticas que assegurem a necessária transparência e garantir que as discussões sobre conduta ética e responsabilidade sejam incentivadas, seja por meio de cláusulas contratuais, seja pela evolução de regras e manuais de boas práticas no âmbito arbitral, buscando equilibrar a adoção de tecnologias inovadoras com a manutenção
[1] Mestre em Direito pela Northwestern University, bacharel em Direito pela USP, especializado em Direito Digital, Direitos Humanos e Direitos LGBT. Sócio do Maranhão & Menezes Advogados.Co-fundador da CoDiTech Moot.
E-mail: bernardo@maranhaomenezes.com.br
[2] Bacharel em direito pela USP e Especialista em Direito de Energia pelo Instituto Brasileiro de Estudos do Direito de Energia (IBDE). Advogada sênior no Muriel Advogados. Co-fundadora da CoDiTech Moot.
E-mail: fernanda@muriel.adv.br
[3] Bacharel em direito pela Pontifícia Universidade Católica do Paraná. Case Manager da Câmara de Conciliação, Mediação e Arbitragem Ciesp/Fiesp. Vice-presidente do Comitê de Jovens Arbitralistas do CBMA (CJA/CBMA). Membro do Conselho do New Voices da Câmara Ciesp/Fiesp. E-mail: mariana.yamashita@ciesp.com.br
[4] AGRAWAL, Ajay; GANS, Joshua; GOLDFARB, Avi. Prediction Machines: The Simple Economics of Artificial Intelligence. Harvard Business Review, 2018, p. 9-11.
[5] BRYNJOLFSSON, Erik; MCAFEE, Andrew. The Second Machine Age: Work, Progress and Prosperity in a Time of Brilliant Technologies. W.W. Norton & Company, 2014.
[6] SCHERER, Maxi. Artificial Intelligence and Legal Decision-Making: The Wide Open? Study on the Example of International Arbitration, Queen Mary University of London, School of Law Legal Studies Research Paper No. 318/2019, p. 3.
[7] SUSSKIND, Richard. Online Courts and the Future of Justice. Oxford University Press, 2019, p. 171, 288.