Quando o Árbitro é um Algoritmo: Desafios Jurídicos e Éticos da Arbitragem por Inteligência Artificial no Brasil

CategoriesBlog

Quando o Árbitro é um Algoritmo: Desafios Jurídicos e Éticos da Arbitragem por Inteligência Artificial no Brasil

Bárbara Janne Fonseca da Silva[1]

Bruna Novaes Beginsky[2]

Gabriela de Oliveira Fernandes[3]

 

O desenvolvimento das ferramentas de Inteligência Artificial (IA) têm suscitado, nos últimos tempos, importantes debates sobre a sua utilização no meio jurídico. Especialmente em conflitos de elevada complexidade – que demandam alto volume de produção documental – os debates voltam-se à viabilidade do emprego dessas ferramentas como instrumentos de suporte aos árbitros.

Nesse sentido, a IA funcionaria como mecanismo de filtragem de informações, modelada para facilitar a análise do alto volume de documentos produzidos e, consequentemente, aumentar a eficiência e rapidez dos procedimentos arbitrais. Todavia, enquanto o debate sobre a utilização de IA como ferramenta de apoio aos árbitros ainda se desenvolve no Brasil, a experiência estadunidense já inaugurou uma nova possibilidade: a condução de uma arbitragem exclusivamente por máquinas.

O emprego de meios eletrônicos como alternativas aos métodos de resolução de conflitos não é recente. As Online Dispute Resolution (ODR), por exemplo, remontam à década de 1990, momento em que se buscava a simplificação da resolução de disputas que nasciam em ambientes ou contextos virtuais[4]. No entanto, ainda que operassem em ambiente integralmente eletrônico, tais plataformas ainda mantinham elevado grau de intervenção humana.

A evolução das ferramentas de IA, contudo, retirou o árbitro-humano da posição de solucionador imparcial e colocou em seu lugar, um algoritmo. A nova alternativa é tentadora. Afinal, o que poderia ser mais eficiente do que uma IA capaz de solucionar um conflito complexo em poucos dias?

Em uma primeira análise, a substituição do árbitro humano por um algoritmo parece atender a demanda por simplicidade e celeridade na resolução de conflitos. Utilizando arbitragens de construção como referência, parecem inegáveis os benefícios da prolação de uma decisão rápida e, à princípio, qualificada, especialmente no contexto de disputas que duram longos anos, inclusive durante a execução das obras.

É precisamente no contexto de demanda por eficiência que plataformas como a Arbitrus.ai[5] surgiram. Desenvolvida para resolver conflitos por meio de uma IA, a plataforma se apresenta como uma alternativa mais rápida e econômica frente às arbitragens tradicionais ou ao Poder Judiciário.

Com grande capacidade de processamento de documentos, a plataforma comporta a submissão de alegações e até mesmo a realização de audiências de instrução, prometendo a pacificação do conflito com uma decisão em até sete dias. Ademais, conforme seus desenvolvedores, as decisões da IA contariam com alto nível de qualidade, porquanto se baseiam em “profundo conhecimento da lei” construído a partir de um “banco de dados com milhares de casos, estatutos e regulamentos”[6] – as decisões, por fim, são submetidas à revisão humana antes de sua divulgação.

Embora o uso do algoritmo se mostre uma proposta atraente, sua implementação revela-se pouco compatível com os ideais que norteiam a arbitragem no contexto brasileiro. Em verdade, a ideia de uma IA atuando como árbitro desafia a própria noção de jurisdição privada. A questão, contudo, não é apenas teórica: envolve restrições impostas pelo ordenamento jurídico brasileiro.

O artigo 13 da Lei nº 9.307/1996 estabelece que “pode ser árbitro qualquer pessoa capaz e que tenha a confiança das partes”. A exigência de “pessoa capaz” não é meramente formal: decorre da capacidade civil, que pressupõe personalidade jurídica e discernimento.

A IA, ainda que extremamente sofisticada, não possui vontade própria, sequer responsabilidade jurídica. Assim, um procedimento inteiramente conduzido por sistemas algorítmicos não apenas resultaria em uma “sentença” anulável[7], mas também não preencheria os elementos mínimos para ser reconhecido como arbitragem em sentido técnico.

É o que se observa em modelos de resolução automatizada de disputas utilizados por algumas plataformas digitais, que empregam o termo “arbitragem” de forma ampla para designar decisões instantâneas entre usuários e prestadores. Nesses casos, trata-se de mecanismos privados de gestão de conflitos, mas não de arbitragem, justamente pela ausência de um árbitro humano investido de jurisdicional privada. Nesse cenário, eventuais “decisões” assim emitidas não se enquadram no regime jurídico da arbitragem e, se apresentadas como tal, poderiam ser consideradas nulas desde a origem.

No entanto, ainda que se cogitasse uma futura alteração legislativa, permitindo a figura do “árbitro artificial”, surgiriam desafios jurídicos e éticos de grande complexidade. O primeiro é o da responsabilidade por erro decisório. Uma IA não tem imputabilidade jurídica: não há intenção, culpa ou dever de cuidado que se possa atribuir a um algoritmo. Se uma decisão injusta ou incorreta fosse proferida, quem seria responsabilizado? O programador que definiu o código? A empresa que comercializou o software? Ou a instituição arbitral que o utilizou?

O sistema brasileiro não dispõe de mecanismos adequados para enquadrar erros provenientes de decisões automatizadas. Seria necessário repensar as bases da responsabilidade civil em direção a um modelo de responsabilidade pelo risco tecnológico, que reconheça a natureza sistêmica do dano causado por decisões algorítmicas.

O segundo desafio é o da imparcialidade e do viés algorítmico. O art. 14 da Lei de Arbitragem exige que o árbitro seja independente e imparcial[8]. No caso da IA, essa garantia depende da neutralidade dos dados e da lógica do algoritmo, elementos, em regra, inacessíveis às partes e suscetíveis de viés.

Esses sistemas de aprendizado reproduzem padrões dos dados de treinamento fornecidos, o que pode gerar distorções ou discriminações não intencionais. A opacidade desses sistemas compromete a transparência e torna nebulosos os fundamentos que levaram ao resultado. Em um contexto arbitral, isso afetaria diretamente o dever de coerência que legitima o julgamento.

No plano ético, surge a questão mais sensível: a desumanização do ato de julgar. Decidir não é apenas aplicar regras, mas ponderar valores, interpretar contextos e exercer prudência. A substituição do árbitro por uma máquina transforma o julgamento em operação estatística, privando a justiça de sua dimensão humana e relacional. Como apontam Carmona e Vieira, a tecnologia pode e deve ser usada como apoio, mas não como substituto da razão humana no processo decisório[9].

À luz disso, o art. 20 da LGPD adiciona uma camada normativa importante: ao garantir ao titular o direito de revisão de decisões tomadas unicamente por tratamento automatizado, a lei sinaliza que a autonomia plena dos sistemas decisórios ainda encontra limites jurídicos claros.

O veto ao §3º, que exigiria revisão humana, não autoriza a substituição do julgador por máquinas, mas preserva a possibilidade de modelos futuros de revisão híbrida ou assistida por IA. Assim, embora a LGPD não legitime um “árbitro artificial”, ela também não fecha a porta para mecanismos de apoio automatizado, desde que submetidos à transparência, contestabilidade e supervisão, reafirmando que a decisão final permanece um ato humano.

Por fim, há implicações institucionais. A arbitragem é uma forma de jurisdição reconhecida pelo Estado, e sua legitimidade depende da confiança pública. Transferir essa função a um sistema autônomo, sem transparência, nem possibilidade de controle, colocaria em risco o próprio pacto que sustenta a justiça privada.

Atualmente, tramita no Congresso o Projeto de Lei (PL) 2338/2023[10], conhecido como Marco Legal da IA. O Projeto classifica como de “alto risco” a utilização de sistemas de IA por autoridades judiciárias em processos decisórios de interpretação e aplicação de leis, garantindo às pessoas afetadas o direito à explicação sobre as decisões automatizadas, bem como o direito de contestá-las e de solicitar revisão humana. Embora ainda haja margem para interpretação, pode-se argumentar que as mesmas regras devem se aplicar ao setor privado da arbitragem.

A aprovação do PL, em sua redação atual, impediria que o árbitro delegasse integralmente a condução ou a decisão do processo à Inteligência Artificial, impondo regras e limites estritos para o seu uso.

O futuro da arbitragem tende a adotar um modelo híbrido, em que a IA atua como ferramenta de análise de documentos e assistente no processo decisório. As inovações tecnológicas têm, sim, a capacidade de tornar o processo mais célere, solucionando impasses causados pelas limitações humanas, mas é necessário garantir que essas ferramentas sejam guiadas por princípios éticos e limites normativos claros, a fim de evitar a desumanização da justiça.

 

[1] Advogada das equipes de contencioso e arbitragem no escritório Toledo Marchetti Advogados, graduada pela Faculdade de Direito da Universidade de São Paulo.

[2] Advogada da equipe de arbitragem e gestão contratual no escritório Toledo Marchetti Advogados, graduada pela Escola de Direito de São Paulo da FGV.

[3] Advogada da equipe de arbitragem no escritório Toledo Marchetti Advogados. Pós-graduanda em Direito dos Contratos pela FGV/SP e em Direito da União Europeia pela Universidade de Coimbra.

[4] SOARES, Marcos José Porto. Uma teoria para a resolução online de disputas (online dispute resolution – ODR). Revista de Direito e as Novas Tecnologias. São Paulo, n.8, jul./set. 2020. Disponível em: https://dspace.almg.gov.br/handle/11037/38405. Acesso em: 02 nov. 2025.

[5] https://www.arbitrus.ai/Acesso. Acesso em: 02/11/2025

[6] ARBITRUS.AI. Decisions are based on a thorough understanding of the law coming from our database of thousands of cases, statutes, and regulations. Disponível em: https://www.arbitrus.ai/. Acesso em: 05 dez. 2025.

[7] Art. 32. É nula a sentença arbitral se: II – emanou de quem não podia ser árbitro.

[8] § 1º As pessoas indicadas para funcionar como árbitro têm o dever de revelar, antes da aceitação da função, qualquer fato que denote dúvida justificada quanto à sua imparcialidade e independência.

[9] CARMONA, Carlos Alberto; VIEIRA, Vitor Silveira. Inteligência artificial e processo arbitral. In: VAUGHN, Gustavo; DUARTE, Rodrigo; ARRUDA, Raphael; COSTA, Fabio; MORELLO, Ana Vitoria (Coord.). Direito, Mercado Jurídico e Sociedade: estudos em comemoração aos 3 anos do grupo de jovens advogados Leading Young Lawyers. São Paulo: LUALRI Editora, 2020, p.398

[10] BRASIL. Projeto de Lei n. 2.338, de 17 de março de 2025. Dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana. Disponível em: <https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra?codteor=2868197&filename=PL%202338/2023>. Acesso em: 02/11/2025.

Postagens relacionadas

19 DE DEZEMBRO DE 2025

Relatório do Evento XII...

XII Congresso CAM-CCBC de Arbitragem – Parte II    Jamyle Terceiro Jardim1 ...

0

19 DE DEZEMBRO DE 2025

Relatório do Evento XII...

XII Congresso CAM-CCBC de Arbitragem – Parte I    Jamyle Terceiro Jardim1  Mariana...

0

19 DE DEZEMBRO DE 2025

Da Intenção à Eficácia: A...

Da Intenção à Eficácia: A Obrigatoriedade da Mediação Prévia em Contratos com...

0

19 DE DEZEMBRO DE 2025

A aplicação do art. 254-A...

A aplicação do art. 254-A da Lei das Sociedades por Ações em casos de fraude à lei...

0

19 DE DEZEMBRO DE 2025

Vinculação do controlador...

Vinculação do controlador indireto à cláusula compromissória estatutária: uma...

0

19 DE DEZEMBRO DE 2025

Leveling the playing field: o...

Leveling the playing field: o que são o Third-Party Funding e o disclosure do contrato...

0

LOCALIZAÇÃO

São Paulo
Rua do Rocio, 220 – 12 andar – cj. 121
Vila Olímpia – São Paulo – SP – Brasil – 04552-000

Rio de Janeiro
Avenida Presidente Wilson, 231 – 14 andar – cj. 1401
Centro, Rio de Janeiro – RJ – Brasil – 20.030-905