Skip to content Skip to sidebar Skip to footer

Sistemas de IA, responsabilidad civil y el mercado asegurador

El uso de sistemas de inteligencia artificial (IA) está presente en nuestra vida diaria hace ya varios años, no obstante, con la irrupción de los sistemas de IA generativa (aquella capaz de crear contenido) todo parece haber cambiado a una velocidad cuyo paso es complejo de llevar.  La IA tradicional (término que por sí solo evoca algo que lleva asentado largo tiempo) está presente en nuestras actividades diarias, procesando datos en cuantías que son bastante difíciles de concebir. Esto influye directa e indirectamente en nuestros hábitos de consumo, tanto físico como digital, en la forma en que nos movilizamos, compramos, nos entretenemos, entre muchos otros, sin embargo, la IA generativa, que sí es bastante nueva, ha demostrado tener una capacidad importante de producir consecuencias en las personas.

La IA generativa tiene la capacidad de crear textos, imágenes, sonidos, códigos de programación, utilizar datos personales como la imagen o la voz, suplantar una identidad de manera creíble, entre muchos otros usos, algunos buenos, otros no tanto.  Todo esto viene aparejado a las obvias preocupaciones éticas que arroja el uso de la IA generativa y la capacidad dual que tiene de generar cosas buenas como de producir daños. La IA tradicional tiene sus propios retos y características que, aunque son innumerables, podemos mencionar la muy cercana tecnología de transporte no tripulado (autos, aeronaves, drones) y su capacidad obvia de producir daños derivados de errores cuya atribución de culpa resulta difusa y compleja. 

A la vanguardia normativa del tema está la Unión Europea, que a través del parlamento europeo y la envidiable capacidad que tienen que identificar legislaciones necesarias para la sociedad en momentos determinados, así como la capacidad de desarrollar dichas legislaciones bajo parámetros técnicos y profesionales, han producido tres iniciativas importantes. La primera, una ley de IA que establece y regula las obligaciones y actuaciones de proveedores de IA clasificándolas en función del riesgo potencial que tienen de producir daños, se centra en la protección de derechos fundamentales y establece estándares de transparencia y seguridad.  Así, las clasifica en sistemas de IA de riesgo mínimo; otras de riesgo limitado, siendo estos aquellos sistemas que permiten al usuario discernir y decidir si utiliza o no el sistema.  

Luego, clasifica los sistemas de IA de riesgo alto y una interesante categoría que se denomina de “riesgo inaceptable” que atiende preocupaciones éticas colectivas muy lógicas como la manipulación cognitiva de comportamiento (sobre todo de grupos vulnerables y susceptibles de adoctrinamiento como los niños y minorías en riesgo social); la clasificación o puntuación social (por pertenencia a un grupo étnico, socioeconómico u otras características) y los sistemas de identificación biométrica, esto último por razones que dan para un libro entero.

En adición al reglamento europeo sobre IA (de aplicación general) está el proyecto de Directiva de Responsabilidad Civil por uso de IA que, luego de estudios y discusiones amplísimas, representa cambios de paradigmas en materia de aplicación de normas tradicionales de responsabilidad civil.  Esto es porque se reconoce que los daños producidos por el uso de sistemas de IA generan retos probatorios en la víctima que busca una compensación.  En un daño tradicional, la víctima tiene que demandar a la persona correcta, probar el daño y muy importante, debe probar la relación causal de la actuación de la persona demandada con el daño que sufrió.  La Directiva de la Unión Europea buscar limitar la carga de la prueba a la víctima, estableciendo una presunción iuris tantum del nexo causal, en adición, facilita a la víctima el acceso a material probatorio a través de los órganos jurisdiccionales correspondientes. 

Finalmente, y con buen tino, la Unión Europea, plantea reformas a su directiva de responsabilidad civil sobre productos defectuosos que ya desde 1985 contempla para el caso de daños causados por productos defectuosos, una responsabilidad objetiva (se prescinde de la culpa) mientras se reconocen nuevamente problemas muy específicos que plantea el uso de productos basados en sistemas de IA que puedan considerarse defectuosos, por ejemplo, a quién demandar (¿al desarrollador, al propietario, al proveedor, al usuario?) y la consideración del software y los archivos digitales (aplicación, programa, lenguaje y sus relacionados) como un “producto”. Las normas tradicionales sobre responsabilidad subsidiaria por daños producidos por cosas que el derecho romano desarrolló y que perfeccionó la codificación francesa con la revolución industrial, quedan obsoletas.

Todo lo anterior tiene incidencia directa en el mundo de los seguros de responsabilidad civil.  Hay una nueva manera de causar daños, hay nuevos riesgos derivados del uso de productos y conductas que son asegurables y por ello, el mercado asegurador y reasegurador tiene retos importantes por delante para adecuarse. Por un lado, porque las discusiones de la directiva sobre responsabilidad civil por daño generados por el uso de IA de la Unión Europea plantean la posibilidad de un seguro obligatorio para proveedores de sistemas de IA, lo que crearía una demanda inmediata. Por otro lado, está la demanda natural derivada de la concurrencia al mercado por parte de empresas que utilicen sistemas de IA.

Los retos principales en los coinciden la mayoría de expertos están relacionados al diseño de productos adecuados, tomando en cuenta la falta de suficiente data sobre siniestros (tanto de la ocurrencia como la forma y causas de dichos siniestros) así como la ausencia de modelos actuariales precisos relacionados a frecuencia de ocurrencia y magnitud de los daños, entre otros elementos esenciales para el adecuado manejo del riesgo por parte del sector asegurador.  El riesgo algorítmico (Como lo denominaron Zurich y Microsoft en el White Paper titulado “Artificial Intelligence and Algorithmic Liability”, 2021) es una realidad presente en la vida diaria, y en muy poco tiempo aumentará de manera directamente proporcional al uso de sistemas de IA, por lo que debemos aspirar a que los anticuados sistemas normativos y jurisprudenciales en Latam empiecen, al menos, a emular sistemas de otras latitudes de forma que nos permitan avanzar un poco y estar más cerca del mundo en el que vivimos. 

Our Firm

At SUCRE ARIAS REYES we are recognized nationally and internationally for the provision of corporate legal services, both to local and multinational companies.


We offer a comprehensive practice to provide our clients with solutions in all areas of law.

Office

Edificio SUCRE ARIAS REYES, Avenida Ricardo Arango y calle 61, Obarrio. P.O. Box 0816 01832 Panamá, República de Panamá.

From Monday to Friday
8:00 a.m. – 5:00 p.m.

Sucre Arias Reyes © 2024. All rights reserved

en_USEN