Le Règlement européen sur l’Intelligence Artificielle (AI Act) est entré en vigueur le 1er août 2024, marquant une première mondiale dans la régulation du développement et de l’utilisation de l’intelligence artificielle.
Ce cadre juridique, visant à anticiper les conséquences potentielles de l’IA, distingue quatre niveaux de risque : risque inacceptable, haut risque, risque spécifique en matière de transparence, et risque minimal. Quel sera l’impact de l’AI Act sur le secteur de l’assurance, où l’IA joue un rôle crucial ?
Les niveaux de risque définis par l’AI Act
L’AI Act distingue 4 niveaux de risque :
- Risque inacceptable
Le règlement interdit certaines pratiques contraires aux valeurs de l’Union européenne et aux droits fondamentaux, telles que la notation sociale, l’exploitation de la vulnérabilité des personnes, ou encore l’utilisation de techniques subliminales.
Pour le secteur de l’assurance, cela signifie l’interdiction de systèmes d’IA exploitant des données sensibles de manière éthique et respectueuse des droits des assurés.
- Haut risque
Les systèmes d’IA à haut risque, pouvant porter atteinte à la sécurité des personnes ou à leurs droits fondamentaux, sont soumis à des exigences renforcées. Il s’agit par exemple des systèmes biométriques, IA pour le recrutement ou à usages répressifs.
Dans l’assurance, cela inclut des systèmes utilisés pour l’évaluation des risques, la tarification des polices d’assurance, et la lutte contre la fraude.
- Risque spécifique en matière de transparence
Les systèmes d’IA qui présentent un risque de manipulation doivent respecter des obligations de transparence.
Les chatbots et la génération de contenu artificiel, couramment utilisés dans le service client des compagnies d’assurance, sont concernés par ces exigences.
- Risque minimal
Pour la majorité des systèmes d’IA utilisés actuellement, aucune obligation spécifique n’est prévue.
Cela inclut de nombreux outils d’IA employés par les compagnies d’assurance pour des tâches administratives ou d’analyse de données sans impact direct sur les droits des individus.
Les modèles d’IA à usage général
L’AI Act encadre également les modèles dits à usage général, comme ceux utilisés pour des tâches variées (ex : grands modèles de langage). Pour ces modèles, des niveaux d’obligation sont prévus, allant de mesures minimales de transparence à des évaluations approfondies pour atténuer les risques systémiques.
Dans le secteur de l’assurance, cela peut inclure des modèles utilisés pour la détection de fraude, la prédiction de sinistres, et la gestion des réclamations.
AI Act et RGPD : complémentarité réglementaire
Le RIA ne remplace pas le RGPD mais le complète en posant des conditions spécifiques pour le développement et le déploiement de systèmes d’IA de confiance. Les assureurs doivent donc se conformer aux exigences du RGPD concernant les données personnelles tout en respectant les obligations spécifiques de l’AI Act.
Il s’agit par exemple de l’utilisation des données personnelles pour le tri de CV ou des systèmes de tarification basés sur des données personnelles.
Gouvernance et surveillance du RIA
Le RIA prévoit une structure de gouvernance à deux niveaux : européen et national. Au niveau européen, le Comité européen de l’IA assure une application cohérente du règlement. Au niveau national, chaque État membre désigne une ou plusieurs autorités compétentes pour surveiller le marché. En France, l’Autorité européenne des assurances et des pensions professionnelles (EIOPA) joue un rôle crucial dans la surveillance des pratiques d’assurance.
Impact du RIA pour le secteur de l’assurance
L’intelligence artificielle joue un rôle majeur dans le secteur assurantiel, notamment pour la lutte contre la fraude et l’évaluation des risques. François-Xavier Enderle, directeur de la transformation digitale de Groupama, le souligne en décembre 2023 : “Nous assureurs, nous sommes soumis aux mêmes exigences qu’un fabricant d’ascenseur ou que l’éditeur du logiciel d’un véhicule autonome. Nous devons atteindre le même niveau de conformité qu’un équipement susceptible d’aboutir à un décès”.
De son côté, dans une note publiée récemment, l’EIOPA classe comme haut risque l’évaluation et la tarification des risques liés aux personnes en matière de santé ou d’assurance vie. Les assureurs, en tant que fournisseurs ou utilisateurs d’IA, doivent donc se conformer à des exigences strictes pour garantir la sécurité et le respect des droits fondamentaux des assurés.
Implications pour la conformité et la gestion des risques
L’une des principales conséquences de l’AI Act pour le secteur de l’assurance sera la nécessité d’adapter les pratiques de conformité et de gestion des risques. Les assureurs devront s’assurer que leurs solutions d’IA respectent les catégories de risque établies par la réglementation, ce qui impliquera probablement des audits réguliers, des évaluations d’impact et la mise en place de mécanismes de surveillance adéquats. Cela pourrait entraîner des coûts supplémentaires et nécessiter une expertise spécifique pour naviguer dans le paysage réglementaire.
Impact sur la tarification et la souscription
L’utilisation de l’IA dans la tarification et la souscription d’assurances est susceptible de subir des modifications significatives. Les systèmes d’IA qui analysent les données personnelles pour établir des profils de risque seront particulièrement scrutés.
Pour se conformer à l’AI Act, les assureurs devront garantir que ces systèmes sont transparents, équitables et n’introduisent pas de biais discriminatoires. Cela pourrait conduire à une refonte des modèles de tarification et poser des défis en termes d’équilibre entre personnalisation et équité.
Opportunités d’innovation et de développement de nouveaux produits
Malgré ces défis, l’AI Act offre également des opportunités d’innovation. En établissant un cadre clair pour l’utilisation éthique de l’IA, cette réglementation peut encourager le développement de nouvelles solutions d’assurance basées sur l’IA, qui sont à la fois plus efficaces et conformes aux attentes éthiques des consommateurs.
Cela pourrait inclure des produits d’assurance personnalisés, des services à valeur ajoutée basés sur l’analyse de données en temps réel, et des systèmes de gestion des sinistres automatisés et plus réactifs.
Renforcement de la confiance des consommateurs
Un aspect crucial de l’AI Act est son potentiel à renforcer la confiance des consommateurs dans les technologies d’IA. En imposant des normes élevées en matière de transparence, de sécurité et de protection des données, la réglementation peut contribuer à dissiper les craintes concernant l’utilisation de l’IA dans des domaines sensibles comme l’assurance.
Cela pourrait se traduire par une plus grande acceptation des innovations technologiques parmi les assurés et, à terme, par une adoption accrue des solutions d’assurance basées sur l’IA.
Vers une assurance plus éthique et innovante grâce à l’AI Act
L’AI Act représente une avancée significative dans la régulation de l’IA, imposant des obligations spécifiques aux assureurs pour garantir une utilisation éthique et sécurisée des technologies d’IA.
En se conformant à ces nouvelles exigences, les assureurs peuvent non seulement protéger les droits des assurés mais aussi renforcer la confiance du public sur l’usage de l’IA dans le secteur de l’assurance.