En avril 2021, la Commission européenne a présenté un projet de nouvelle loi sur l’intelligence artificielle, qui définit les règles de développement, de commercialisation et d’usage des produits et services basés sur cet outil. La législation couvre toute entreprise opérant au sein de l’UE et dans n’importe quel secteur.
Cette loi introduit un cadre pour regrouper les systèmes d’IA en quatre catégories en fonction du niveau de risque de l’application. L’objectif est d’encourager le développement d’instruments responsables et fiables, dès la première ligne de code.
Bien qu’il faut certainement du temps pour que la loi entre en vigueur, certains pays cherchent à tester ce cadre depuis octobre 2022. C’est le cas de l’Espagne. Au cours de cette période, les sociétés pourront tester des systèmes d’IA liés à l’application de la loi, à des fins sanitaires ou éducatives conformément aux règles énoncées dans la loi européenne et sous la surveillance des autorités concernées. Le but est de donner une longueur d’avance aux startups et entreprises de taille moyenne qui constituent une grande partie du tissu économique européen à une époque où l’innovation en matière d’intelligence artificielle est largement tirée par les grandes sociétés technologiques.
Sa signification pour le secteur de l’assurance
L’industrie de l’assurance est déjà fortement réglementée sur la plupart des marchés, certains cadres réglementaires couvrant les utilisations de l’IA. Toutefois, les compagnies d’assurances et les insurtechs doivent toujours être conscientes des applications que la loi européenne pourrait considérer à haut risque, en particulier si elles utilisent l’intelligence artificielle pour effectuer des tâches liées aux décisions financières et de police d’assurance.
Un projet mis à jour de la loi de l’UE sur l’IA, publié en novembre 2021, classe les systèmes liés à l’assurance dans la catégorie à haut risque. Plus précisément, ce sont les systèmes utilisés pour la fixation des primes, les souscriptions et l’évaluation des sinistres.
Selon ce projet, si ces derniers ne sont pas dûment conçus, développés et pris en main, ils peuvent entraîner de graves conséquences pour la vie des personnes, notamment l’exclusion économique et la discrimination.
La préparation des professionnels à la conformité
Semblable aux premières étapes du RGPD, nous sommes encore à plusieurs mois, voire des années, de savoir exactement comment l’Union européenne appliquera les mesures décrites dans la loi sur l’IA. Cependant, il est certain que la surveillance réglementaire de l’intelligence artificielle et des données introduites dans ces divers systèmes ne fera qu’augmenter, tant en Europe que dans le reste du monde.
Les entreprises devraient déjà réfléchir à ce qu’elles peuvent faire pour se préparer et se conformer aux politiques responsables en matière d’IA.
Comme le souligne Cognizant, les applications technologiques qui tirent des enseignements des décisions de souscription historiques pourraient détecter des préjugés sexistes ou raciaux cachés dans les données. Les sociétés doivent comprendre où les préjugés peuvent s’infiltrer dans leurs systèmes.
L’établissement de politiques internes responsables et éthiques en matière d’IA est une première étape. Les professionnels peuvent identifier les principales parties prenantes et les impliquer dans la création de ces politiques, en particulier celles qui dirigent la stratégie et le développement des projets technologiques innovants.
L’étape suivante importante consiste à établir un système de gouvernance interne qui devrait inclure tous les fournisseurs externes nécessaires au développement de l’intelligence artificielle. Ces équipes devraient être impliquées dès le départ et aider à identifier tout risque lié à l’intelligence artificielle.
De nombreuses organisations ont publié des conseils pour aider les entreprises à utiliser les données et l’IA de manière éthique, notamment l’OCDE, la Commission européenne, la Financial Conduct Authority (FCA) et l’Open Data Institute (ODI) au Royaume-Uni. La Business Roundtable, une organisation composée de plus de 200 PDG et cadres basés aux États-Unis, a également publié une feuille de route détaillée mettant en évidence 10 principes permettant aux sociétés de parvenir à une IA responsable au sein de leurs entités.
De la souscription au traitement des sinistres, l’intelligence artificielle transforme radicalement le secteur de l’assurance et l’accent est désormais mis sur la garantie que la technologie est utilisée de manière équitable et éthique.
Les professionnels doivent être en mesure d’expliquer précisément d’où proviennent leurs données et la façon dont l’IA est déployée dans leur stratégie et leurs opérations, d’autant plus que la pression sur la réglementation s’intensifie et que les consommateurs exigent de plus en plus de transparence dans les contrats, les tarifs et les procédures.