La nueva frontera de la responsabilidad civil: inteligencia artificial, autonomía y protección del consumidor
La nueva frontera de la responsabilidad civil: inteligencia artificial, autonomía y protección del consumidor
Sebastián Bozzo Hauri es abogado, doctor en Derecho por la Universidad de Valencia y decano de la Facultad de Derecho de la Universidad Autónoma de Chile. Especialista en derecho civil, consumo e inteligencia artificial, lidera proyectos Fondecyt y el Módulo Jean Monnet en IA y Derecho Privado Europeo. Ha dirigido el Centro de Regulación y Consumo y la plataforma Autonomía Financiera
La evolución tecnológica ha ingresado en una fase que interpela los cimientos mismos del derecho privado. La irrupción de sistemas basados en inteligencia artificial (IA), particularmente en su fase más reciente —los llamados agentes de IA— obliga a replantear el estatuto tradicional de la responsabilidad civil, especialmente en el ámbito del derecho del consumidor.
La trayectoria de la IA ha seguido un curso en tres oleadas. La primera fue la IA predictiva, entrenada con datos históricos para anticipar comportamientos futuros, presente en motores de recomendación o modelos de segmentación. La segunda fue la IA generativa, como ChatGPT o Gemini, capaz de producir textos, imágenes o decisiones nuevas a partir de descripciones (prompts). Pero es la tercera oleada, representada por los agentes de IA, la que plantea el mayor desafío: software capaz de actuar autónomamente, tomar decisiones en nombre del usuario, interactuar con múltiples plataformas y ejecutar tareas con mínima supervisión humana.
Estos agentes son definidos como sistemas basados en reglas operativas sobre entornos previamente delimitados, con un alto grado de conocimiento específico y capacidad para manejar información textualizada. A diferencia de otros sistemas de IA, los agentes no se limitan a responder, sino que actúan: compran pasajes, ejecutan transferencias, coordinan citas médicas, todo de manera automatizada. En suma, asumen funciones que antes eran exclusivas de las personas.
Este despliegue autónomo y adaptativo, que se da tanto en entornos físicos como virtuales, tensiona los elementos clásicos de la responsabilidad civil. Como señala la doctrina (Barros, Corral, Aedo), el punto de partida del sistema de responsabilidad es un comportamiento humano imputable, en el que el daño es consecuencia de una acción u omisión. Sin embargo, cuando el daño es causado por un sistema que actúa de forma independiente, ¿quién responde?
El régimen de responsabilidad civil en materia de consumo, regido en Chile por la Ley N° 19.496 (LPDC), se asienta sobre la noción de proveedor, producto y consumidor. En este marco, surge la primera complejidad: ¿puede un sistema de IA ser considerado un producto? ¿Y su desarrollador o implementador, un proveedor? La LPDC entiende como producto aquellos bienes que se ofrecen y comercializan, normalmente a cambio de un precio. Pero en el entorno digital, muchos servicios basados en IA se ofrecen gratuitamente a cambio de datos personales, configurando una contraprestación no monetaria que no está adecuadamente regulada.
Aun si se admite que el sistema de IA es un producto, la dificultad no desaparece. Las características propias de estos sistemas —complejidad, interconectividad, opacidad, autoaprendizaje y autonomía— dificultan la determinación de la causa del daño y la identificación del responsable. Así, por ejemplo, ante una recomendación defectuosa emitida por un agente IA en una plataforma de seguros, ¿es responsable el diseñador del algoritmo, el proveedor de los datos, el operador de la plataforma, o el tercero que implementó el agente?
La opacidad de estos sistemas, donde ni siquiera los desarrolladores pueden explicar con claridad por qué el sistema tomó determinada decisión (la llamada "caja negra algorítmica"), afecta directamente la carga probatoria del consumidor. Esto es especialmente problemático en un régimen que exige la concurrencia de culpa o negligencia y un nexo causal identificable.
En Europa, estas tensiones han impulsado reformas sustantivas. La reciente Directiva sobre responsabilidad por productos defectuosos (aprobada en marzo de 2024) amplía el concepto de producto para incluir software y agentes basados en IA, y flexibiliza la carga de la prueba. Se establecen presunciones legales para proteger a las víctimas cuando el daño proviene de sistemas complejos, difíciles de auditar o entender. Se reconocen nuevas figuras responsables, como el implementador, el integrador de componentes, o incluso los prestadores de servicios de tramitación de pedidos a distancia. Asimismo, se establece la responsabilidad solidaria entre operadores económicos y el derecho a repetición.
En particular, es urgente que los países en Latinoamérica ajusten sus cuerpos normativos en al menos tres dimensiones:
1. Reconocimiento de nuevos sujetos responsables: incluir al desarrollador, implementador, integrador y operador del sistema de IA como posibles proveedores.
2. Ampliación del concepto de producto: para incorporar software autónomo, incluso cuando no sea vendido directamente al consumidor.
3. Presunciones en favor del consumidor: en casos de daño por sistemas opacos o complejos, debe establecerse una inversión de la carga probatoria, como lo hace la nueva directiva europea.
La autonomía de los agentes IA no es solo un reto técnico. Es un desafío jurídico profundo que exige revisar el contrato social entre innovación y protección de derechos. La confianza del consumidor en el ecosistema digital depende de que pueda identificar al responsable, exigir la reparación del daño y tener acceso efectivo a los medios de prueba. Si no se garantiza ese equilibrio, la promesa de la inteligencia artificial se convertirá en una nueva forma de vulnerabilidad.
El derecho debe estar a la altura de esta transformación. No para obstaculizar la innovación, sino para dotarla de legitimidad y sentido de justicia. La responsabilidad civil, especialmente en el ámbito del consumo, debe redibujarse a la luz de los agentes IA.