fbpx

La UE da el primer paso para aprobar la primera Ley en el mundo sobre IA

El uso de la inteligencia artificial estará regulado en la UE por la Ley de la IA, que acaba de empezar su tramitación entre las instituciones comunitarias. Será la primera ley integral sobre IA del mundo y, visto el auge de este avance tecnológico, afectará a todos los sectores. El asegurador tampoco se va a librar ya que tendrá que cumplir con una serie de obligaciones según el nivel de riesgo de la IA que se utilice. Hay 4 categorías de riesgo y, a continuación, detallamos en qué consiste cada una de ellas.

La UE da el primer paso para aprobar la primera Ley en el mundo sobre IA

El Parlamento Europeo ha dado el visto bueno a la Ley de Inteligencia Artificial (IA), por lo que fija así su posición de cara a las negociaciones que se abren ahora con la Comisión Europea y el Consejo de la UE para pactar el texto definitivo. El objetivo es alcanzar un acuerdo a finales de este año.

Regular la inteligencia artificial forma parte de la estrategia digital de la UE. En abril de 2021, la Comisión propuso el primer marco regulador de la UE y, desde entonces, se ha trabajado en una propuesta de Ley. El texto no es definitivo, pero sí marca el camino.

Para empezar, se propone que los sistemas de IA que puedan utilizarse se analicen y clasifiquen según el riesgo que supongan para los usuarios. Los distintos niveles de peligro implicarán una mayor o menor regulación. A priori, Insurance Europe está de acuerdo con esta idea. De hecho, en febrero de 2023, firmó una declaración junto a otras asociaciones instando a los eurodiputados a garantizar que la Ley de IA se base en el riesgo. Ahora falta que Insurance Europe analice el texto íntegro y vea si esta idea se ha mantenido finalmente o se han introducido cambios.

Ante todo, el Parlamento Europeo se marca el objetivo de garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Por esta razón, establece que los sistemas de IA sean supervisados por personas.

4 niveles de riesgo

– Riesgo inaceptable: es la IA que se considere una amenaza para las personas. De entrada, estará prohibida. Se refiere a sistemas de IA que causen la manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos. El Europarlamento pone un ejemplo: juguetes activados por voz que fomentan comportamientos peligrosos en los niños. También entran en esta categoría las IA que clasifiquen a personas en función de su comportamiento, estatus socioeconómico o características personales; y los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial, excepto cuando sirva para perseguir delitos graves y siempre que se haya obtenido una aprobación judicial previa.

– Alto riesgo: IA que afecte negativamente a la seguridad o a los Derechos Fundamentales. Se dividirán en dos categorías. Una de ellas aglutina los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, como juguetes, aviación, automóviles, dispositivos médicos y ascensores. Y la otra categoría engloba a IA pertenecientes a 8 ámbitos específicos que deberán registrarse en una base de datos de la UE: identificación biométrica y categorización de personas físicas; gestión y explotación de infraestructuras críticas; educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas; aplicación de la ley; gestión de la migración, el asilo y el control de fronteras; y asistencia en la interpretación jurídica y aplicación de la ley. Todos estos sistemas de IA, calificados de alto riesgo, serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.

– IA generativa: es la IA de ChatGPT y tendría que cumplir varios requisitos de transparencia, como revelar que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

– Riesgo limitado: también debe cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas. Los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo. Y el Parlamente Europeo pone un ejemplo: las deepfakes.

¿Qué implica la nueva ley de Inteligencia Artificial para las aseguradoras?

La nueva ley de Inteligencia Artificial (IA) tiene implicaciones significativas para las aseguradoras. La IA puede ayudar a las compañías de seguros a mejorar la precisión en la evaluación de riesgos, reducir los costos operativos y mejorar la experiencia del cliente. Sin embargo, también presenta desafíos, como la necesidad de asegurar que los algoritmos sean justos y no discriminan a ciertos grupos de personas. Además, las aseguradoras tendrán que garantizar que sus sistemas sean seguros y respeten la privacidad de los datos personales. La nueva ley también puede requerir que las aseguradoras informen sobre el uso de la IA en su toma de decisiones y proporcionen transparencia en sus procesos. En general, la nueva ley de IA puede ser una oportunidad para que las aseguradoras mejoren sus prácticas comerciales y brinden mejores servicios a sus clientes.

Los desafíos y oportunidades que presenta la Inteligencia Artificial en el sector de seguros

La Inteligencia Artificial (IA) presenta tanto desafíos como oportunidades para el sector de seguros. En primer lugar, la IA puede ayudar a las aseguradoras a mejorar la precisión de sus evaluaciones de riesgos y a reducir los errores humanos en los procesos de suscripción y reclamaciones. Sin embargo, la IA también plantea desafíos en términos de privacidad y seguridad de datos, ya que la recopilación y el uso de datos personales son fundamentales para el funcionamiento de los seguros. Además, la implementación de la IA requiere una inversión significativa en tecnología y recursos humanos especializados. Por lo tanto, las empresas de seguros deben evaluar cuidadosamente los beneficios potenciales y los riesgos antes de adoptar la IA y desarrollar estrategias para maximizar sus oportunidades mientras minimizan sus riesgos.

Cómo las empresas de seguros pueden adaptarse a la nueva era de la Inteligencia Artificial

Para adaptarse a la nueva era de la Inteligencia Artificial, las empresas de seguros deben considerar varios aspectos. En primer lugar, deben invertir en tecnología y capacitación para sus empleados. Es importante que los trabajadores comprendan cómo funciona la IA y cómo pueden utilizarla para mejorar su trabajo. Además, las empresas deben colaborar con proveedores de tecnología y desarrolladores para crear soluciones personalizadas que se adapten a sus necesidades específicas. También es crucial que las empresas se centren en la privacidad y la seguridad de los datos, asegurándose de cumplir con las regulaciones y garantizar la protección de la información confidencial de sus clientes. Por último, deben estar dispuestas a experimentar y probar nuevas soluciones de IA para encontrar aquellas que mejor se adapten a sus necesidades y proporcionen el máximo valor a sus clientes.

La nueva ley de Inteligencia Artificial presenta tanto desafíos como oportunidades para el sector de seguros. Las aseguradoras deben estar preparadas para adaptarse a la nueva era de la IA y aprovechar sus beneficios. Pero, ¿cómo afectará esto a los consumidores? ¿Podría haber una brecha en la accesibilidad y equidad en el uso de tecnologías avanzadas en el sector de seguros? Es importante reflexionar sobre estos aspectos y considerar cómo garantizar que la IA beneficie a todos los usuarios del sector.

Fuente: GrupoAseguranza