
(Bianca Aguiar)
A inteligência artificial (IA) já é uma realidade e cada vez mais faz parte da rotina de muitas empresas, inclusive na análise e elaboração de contratos.
Plataformas que leem cláusulas, sugerem ajustes automáticos e até redigem minutas prometem reduzir custos e agilizar negociações. No entanto, o uso da IA em contratos traz novos desafios jurídicos, especialmente quanto à boa-fé, consentimento e responsabilidade pelas decisões automatizadas.
Nos contratos cíveis – e empresariais -, a boa-fé exige transparência e equilíbrio entre as partes.
Quando um documento é gerado total ou parcialmente por uma ferramenta de IA, surge a dúvida: quem responde por eventuais erros, omissões ou interpretações equivocadas da máquina? Se uma cláusula abusiva ou incorreta for incluída automaticamente, a empresa que utilizou a tecnologia ainda será responsável por ela.
Isso porque a delegação à IA não afasta o dever e a responsabilidade humana de revisar e compreender o conteúdo contratual.
Outro ponto relevante é o consentimento informado. Em uma negociação digital, as partes precisam saber quando estão interagindo com sistemas automatizados. A omissão desta informação pode gerar alegações de vício de consentimento, enfraquecendo a validade do contrato.
Por isso, as empresas que adotam IA em sua gestão contratual devem criar políticas internas de validação dos documentos, com revisão humana obrigatória antes da assinatura. Também é recomendável inserir cláusulas que delimitem o uso da tecnologia e prevejam a responsabilidade em caso de falha do sistema.
A IA é, portanto, uma aliada poderosa da eficiência empresarial, mas sua utilização exige cautela jurídica. O equilíbrio entre inovação e segurança contratual passa, necessariamente, pela atuação consciente e responsável das empresas — porque, no fim das contas, a boa-fé e a responsabilidade negocial continuam sendo humanas.