La jornada de la Cátedra de Derecho Mercantil organizada por Pérez-Llorca e IE Law School analizó el impacto de las nuevas tecnologías e Inteligencia Artificial en el sector asegurador, abordando retos legales y regulatorios clave.
Pérez-Llorca e IE Law School han organizado una nueva jornada de su Cátedra de Derecho Mercantil para analizar el impacto de la IA en el sector asegurador. Se expusieron también los nuevos retos legales y las novedades regulatorias.
El evento fue inaugurado por Rafael Fernández, quien presentó la temática de la sesión. Destacó la importancia de analizar desde un punto de vista legal y práctico la respuesta del legislador y entidades del sector asegurador en la adaptación de esta tecnología.
Optimizar la gestión del riesgo
David González, de Microsoft, destacó la relevancia de la adopción tecnológica en las empresas del sector asegurador. Explicó cómo la IA está revolucionando la experiencia del asegurado al facilitar interacciones más naturales. Asimismo, resaltó que la IA optimiza la gestión del riesgo y transforma procesos clave en la nube, permitiendo a las empresas lanzar nuevos productos al mercado de forma más ágil. «El 65% de los casos de uso en la industria de seguros se centran en la tramitación de siniestros y la atención al cliente», puntualizó González Gallardo.
Desafíos regulatorios
Raúl Rubio y Araceli Moyá abordaron los desafíos regulatorios que enfrenta la industria, subrayando que los intangibles generados en torno a la IA plantean retos especialmente complejos en su calificación. Ambos coincidieron en que, aunque el marco normativo pueda evolucionar, la gobernanza y el cumplimiento deben mantenerse como pilares fundamentales.
Moyá recalcó la importancia de comprender la normativa y fomentar una gobernanza sostenible. “Aunque la IA no es nueva, su integración con la nueva regulación europea puede ralentizar los procesos internos, aunque e no detener la implementación de nuevas soluciones basadas en IA, y no debe suponer un freno a la innovación. El reto será gestionar, sobre todo al principio, la inseguridad jurídica que pueda generarse”.
Rubio puso el foco en el componente ético y la necesidad de establecer comités éticos para promover la transparencia. “El mayor riesgo de las organizaciones en los próximos años va a ser reputacional. Puede suceder que las empresas lleven a cabo unas prácticas que no estén prohibidas, pero que sean reprochables por parte del mercado”, abogó.
El factor humano
Rodrigo Fuentes Gómez resaltó que el factor humano resulta fundamental. Subrayó que las entidades se enfrentan al desafío de extender los beneficios de la digitalización a todos los equipos de la organización, y no solo a un pequeño grupo especializado. «El reto es llevar a la compañía a abrazar la tecnología como parte de su cultura, con un plan estructurado que no se quede únicamente en el equipo técnico», afirmó.
Felipe Vázquez sostuvo que la gobernanza no debe ser una responsabilidad que recaiga exclusivamente en los departamentos de control: “La clave está en construir una cultura de control robusta en todos los niveles de la organización, que garantice la solidez y el cumplimiento sin sacrificar la agilidad operativa”.Valoró la importancia de contar con figuras clave como el Chief Data Officer y el Data Protection Officer.
Joaquín Ruiz Echauri cerró la sesión abordando el impacto de la regulación en materia de IA
En su intervención, destacó el Libro Blanco de la Comisión Europea sobre IA y la propuesta de Directiva relativa a la Adaptación de las Normas de Responsabilidad Civil Extracontractual a la Inteligencia Artificial. Señaló que la directiva se aleja de responsabilizar directamente a los sistemas de Inteligencia Artificial, enfocándose en las personas detrás de la tecnología.
Concepto de «IA de alto riesgo»
Incluye sistemas utilizados como componentes de seguridad de un producto o que, como productos en sí mismos, están sujetos a la legislación europea. Como consecuencia, podrían surgir disputas en las que, en caso de daños provocados por dichas IAs, sus creadores tendrían que demostrar que hicieron todo lo posible para evitar el daño, incluso si la «IA de alto riesgo» se utilizó con un fin diferente al original. Esto plantea nuevos desafíos para las aseguradoras, que deberán establecer con claridad los límites y condiciones de las pólizas que cubran estos riesgos. “Es crucial que las compañías se preparen para estos cambios normativos, ya que no sólo impactarán en la gestión de riesgos, sino también en la forma en que se diseñan y se ofrecen los productos aseguradores, lo que implica una transformación profunda en el sector», concluyó Ruiz Echauri.
También te puede interesar:
- Pérez-Llorca y Fundación MAPFRE presentan una obra jurídica sobre el Tercer Sector
- Pérez-Llorca y González Calvillo culminan su integración en México