L’utilisation croissante de l’intelligence artificielle dans la prise de décisions qui affectent notre vie quotidienne nécessitera un niveau de transparence explicable pour les employés et les clients. Neil Chapman, l’un des responsables au sein de Willis Tower Watson, nous en dit plus dans cet article.
La data, élément central du processus assurantiel
Les compagnies d’assurances se sont fiées aux données depuis que l’assurance existe. Les assureurs d’aujourd’hui utilisent des mégadonnées provenant d’une myriade de sources pour souscrire avec plus de précision, évaluer le risque et créer des incitations à la réduction des risques.
Les avancées en matière de capture et de stockage de données rendent disponibles plus d’informations sur les consommateurs que jamais auparavant. De la télématique qui suit le comportement au volant aux médias sociaux qui créent une empreinte numérique qui pourrait offrir des informations sans précédent, de nouvelles sources de données sont désormais capables de produire des profils hautement individualisés de risque client.
Les assureurs utilisent de plus en plus l’intelligence artificielle et le machine learning pour gérer des flux de travail manuels peu complexes, ce qui augmente considérablement l’efficacité opérationnelle.
La capacité de prédire avec une plus grande précision les pertes et le comportement de leurs clients est également à l’origine de l’essor de l’assurance basée sur la technologie. Certains professionnels du secteur affirment que cela leur donne aussi plus de possibilités d’influencer le comportement et même d’empêcher les sinistres de se produire.
Pourtant, y a-t-il un risque que cette nouvelle façon de faire crée des injustices et vienne même empêcher la bonne exécution du modèle de mutualisation des risques qui est fondamental pour l’industrie, rendant impossible la couverture pour certaines personnes ?
Après tout, l’IA n’est pas une technologie agnostique et peut donc être utilisée de manière à renforcer les préjugés de ses créateurs. Par conséquent, les assureurs doivent être particulièrement sensibles pour s’assurer qu’ils développent et utilisent l’IA et le machine learning de manière éthique et gèrent les données de leurs clients avec des contrôles étanches.
À quel point l’IA est-elle éthique ?
L’IA est devenue une partie intégrante des opérations quotidiennes dans la plupart des industries et peut être créditée d’avoir condensé de grandes quantités de données en quelque chose de plus utilisable. Mais alors que les entreprises font l’objet d’un examen public plus approfondi de la manière dont les algorithmes influencent leur comportement , la question de savoir comment appliquer de manière éthique l’IA et le machine learning est une priorité pour les leaders de l’assurance.
Il est important de se rappeler que l’IA ne raisonne pas vraiment, les algorithmes n’ont pas d’éthique, car ce ne sont que des algorithmes. Ainsi, au lieu de se demander dans quelle mesure l’IA d’une entreprise est éthique, nous devrions plutôt savoir dans quelle mesure l’éthique est prise en compte par les personnes qui perçoivent l’IA, l’alimentent en data et l’utilisent pour prendre des décisions.
Pour les questions de confidentialité, les organisations sont tenues de respecter le RGPD, le cadre juridique européen sur la manière de traiter les données personnelles. À l’heure actuelle, cependant, rien de semblable n’est en place pour faire face à la multitude de défis éthiques présentés par ce rythme rapide d’innovation au niveau de l’IA. La loi de l’UE sur l’IA, proposée pour la première fois en 2021 et qui devrait être adoptée en 2024, est considérée comme la première réglementation internationale pour ce type de technologie.
Ainsi, bien que divers textes législatifs soient en préparation, des zones d’ombres subsistent, les entreprises devant s’appuyer sur des directives de haut niveau qui pourraient laisser une marge d’interprétation importante. Par conséquent, pour le moment du moins, la responsabilité incombe principalement aux entreprises, aux organisations et à la société de s’assurer que l’IA est utilisée de manière éthique.
Faire preuve de transparence
Alors que les assureurs étaient déjà sur le chemin du numérique et des produits innovants avant la COVID-19, la pandémie a certainement accéléré certaines de ces transformations. Outre les facteurs plus récents d’incertitude croissante sur les marchés mondiaux et d’inflation élevée, l’évolution des demandes des clients a exercé une pression énorme sur l’industrie pour qu’elle se transforme rapidement.
Afin de répondre aux attentes des clients en matière de rapidité et de commodité, avec des produits et services adaptés à leurs besoins, et des expériences équivalentes à celles ailleurs dans la vie et en ligne, les assureurs doivent innover plus rapidement, la technologie de l’IA devenant de plus en plus un composant et une fonction incontournables. Pour augmenter leurs activités de gestion des risques, l’utilisation croissante de l’IA dans la prise de décisions qui affectent notre vie quotidienne nécessitera également un niveau de transparence explicable pour les employés et les clients.
Compte tenu des immenses volumes et de la diversité des sources de données, la valeur réelle de l’IA et du machine learning est mieux exploitée lors de la prise de décisions intelligentes à grande échelle sans intervention humaine.
Pourtant, cette capacité une fois atteinte donne lieu à une perception d’une boîte noire où la plupart du personnel de l’entreprise ne comprend pas pleinement pourquoi ou comment une certaine action a été entreprise par le modèle prédictif.
En effet, à mesure que les entreprises exploitent davantage les données et que les types d’analyses et de modèles qu’elles élaborent deviennent plus complexes, un modèle devient plus difficile à comprendre. Ceci, à son tour, entraîne une demande croissante pour l’explicabilité des modèles et un moyen plus facile d’accéder et de comprendre les modèles, y compris du point de vue d’un régulateur.
Réaliser le potentiel de l’IA
Les opportunités de tarification plus sophistiquée et d’impact immédiat sur les pertes et dommages n’ont jamais été meilleures. La poursuite de la sophistication des prix peut permettre des changements transformateurs vers des analyses avancées, l’automatisation, de nouvelles sources de données et la capacité de réagir rapidement à l’évolution des environnements de marché.
Les données externes peuvent aider les assureurs à mieux comprendre les risques qu’ils souscrivent. Avec une image complète du conducteur et du véhicule, les assureurs automobiles peuvent mieux évaluer les risques et détecter les fraudes. En introduisant des données externes dans des modèles analytiques, ils peuvent citer avec plus de précision et attirer des profils de risque souhaitables au bon prix.
L’investissement dans l’IA peut également permettre à un assureur d’améliorer encore l’expérience client tout au long du cycle de vie de la police, de la rationalisation au moment du devis au traitement plus rapide du règlement des sinistres.
L’exigence d’une IA transparente et responsable s’inscrit bien entendu dans un débat plus large sur l’éthique des entreprises. Quelles sont les valeurs fondamentales d’un assureur ? Comment sont-elles liées à ses capacités technologiques et de données ? Quels cadres et processus de gouvernance ont-ils mis en place pour les suivre ? En fin de compte, pour que l’IA ait le plus d’impact, elle doit avoir la confiance du public.