Inglés

|

Campus Virtual

|

Solicitar información

A nova fronteira da responsabilidade civil: inteligência artificial, autonomia e proteção do consumidor

A nova fronteira da responsabilidade civil: inteligência artificial, autonomia e proteção do consumidor

Sebastián Bozzo Hauri é advogado, doutor em Direito pela Universidad de Valencia e atualmente atua como decano da Faculdade de Direito da Universidad Autónoma de Chile. Especialista em direito civil, direito do consumidor e inteligência artificial, lidera projetos Fondecyt e o Módulo Jean Monnet em Inteligência Artificial e Direito Privado Europeu. Foi diretor do Centro de Regulação e Consumo, bem como da plataforma Autonomía Financiera.

A evolução tecnológica adentrou uma fase que desafia os próprios alicerces do direito privado. A irrupção de sistemas baseados em inteligência artificial (IA) — particularmente em sua fase mais recente, representada pelos chamados agentes de IA — exige um replanteamento do estatuto tradicional da responsabilidade civil, sobretudo no âmbito do direito do consumidor.

A trajetória da IA desenvolveu-se em três ondas sucessivas. A primeira foi a IA preditiva, treinada com dados históricos para antecipar comportamentos futuros, presente em motores de recomendação e modelos de segmentação. A segunda corresponde à IA generativa, como o ChatGPT ou o Gemini, capaz de produzir textos, imagens ou decisões a partir de descrições (prompts). No entanto, é a terceira onda — os agentes de IA — que coloca os maiores desafios: softwares autônomos, capazes de tomar decisões em nome do usuário, interagir com múltiplas plataformas e executar tarefas com mínima supervisão humana.

Tais agentes são definidos como sistemas baseados em regras operacionais aplicadas a ambientes previamente delimitados, com elevado grau de conhecimento específico e capacidade de manipular informações em linguagem natural. Diferentemente de outros sistemas de IA, os agentes não se limitam a responder: eles atuam. Compram passagens, realizam transferências bancárias, agendam consultas médicas — tudo de forma automatizada. Em síntese, assumem funções que outrora eram exclusivas de seres humanos.

Esse desempenho autônomo e adaptativo — tanto em ambientes físicos quanto virtuais — tensiona os elementos clássicos da responsabilidade civil. Conforme observa a doutrina (Barros, Corral, Aedo), o ponto de partida do sistema de responsabilidade reside em um comportamento humano imputável, no qual o dano decorre de uma ação ou omissão. Contudo, quando o dano é causado por um sistema que atua de forma independente, quem responde?

O regime de responsabilidade civil no direito do consumidor, como disciplinado no Chile pela Lei nº 19.496 (LPDC), assenta-se nas figuras do fornecedor, produto e consumidor. Nesse cenário, surge a primeira complexidade: pode um sistema de IA ser considerado um produto? E seu desenvolvedor ou implementador, seriam fornecedores? A LPDC define produto como o bem oferecido e comercializado, geralmente mediante pagamento. Contudo, no ambiente digital, muitos serviços baseados em IA são oferecidos gratuitamente em troca de dados pessoais, configurando uma contraprestação não monetária ainda insuficientemente regulada.

Mesmo admitindo-se que o sistema de IA seja um produto, a dificuldade persiste. As características próprias desses sistemas — complexidade, interconectividade, opacidade, autoaprendizado e autonomia — dificultam a determinação da causa do dano e a identificação do responsável. Assim, por exemplo, diante de uma recomendação defeituosa feita por um agente de IA em uma plataforma de seguros, quem seria responsável? O programador do algoritmo, o fornecedor dos dados, o operador da plataforma ou o terceiro que implementou o agente?

A opacidade desses sistemas — nos quais nem mesmo os desenvolvedores conseguem explicar claramente as decisões tomadas (a chamada “caixa-preta algorítmica”) — afeta diretamente o ônus da prova imposto ao consumidor. Isso é especialmente problemático em regimes que exigem culpa ou negligência e um nexo causal bem definido.

Na Europa, tais tensões impulsionaram reformas substanciais. A recente Diretiva sobre Responsabilidade por Produtos Defeituosos (aprovada em março de 2024) ampliou o conceito de produto para incluir softwares e agentes baseados em IA, flexibilizando também o regime probatório. Estabelecem-se presunções legais em favor das vítimas, especialmente quando o dano provém de sistemas complexos, de difícil auditoria ou compreensão. Reconhecem-se novos sujeitos responsáveis, como implementadores, integradores de componentes e até prestadores de serviços de intermediação remota. Além disso, institui-se a responsabilidade solidária entre operadores econômicos e o direito de regresso entre eles.

Em especial, é urgente que os países da América Latina reformulem seus marcos normativos em pelo menos três dimensões:

1. Reconhecimento de novos sujeitos responsáveis: incluir desenvolvedores, implementadores, integradores e operadores de sistemas de IA como potenciais fornecedores.

2. Ampliação do conceito de produto: para abranger software autônomo, mesmo quando não comercializado diretamente ao consumidor.

3. Presunções em favor do consumidor: em casos de danos causados por sistemas opacos ou complexos, deve-se prever a inversão do ônus da prova, como faz a nova diretiva europeia.

A autonomia dos agentes de IA não constitui apenas um desafio técnico. Trata-se de um desafio jurídico profundo que exige repensar o contrato social entre inovação e proteção de direitos. A confiança do consumidor no ecossistema digital depende da possibilidade de identificar o responsável, exigir a reparação do dano e ter acesso efetivo aos meios de prova. Se esse equilíbrio não for garantido, a promessa da inteligência artificial poderá converter-se em uma nova forma de vulnerabilidade.

O direito deve estar à altura dessa transformação. Não para frear a inovação, mas para dotá-la de legitimidade e de um sentido de justiça. A responsabilidade civil — especialmente no domínio das relações de consumo — precisa ser redesenhada à luz dos agentes de IA.