Avec l’avènement des nouvelles technologies, la dernière décennie aura été le théâtre d’une révolution dans le domaine de la lutte contre la fraude à l’assurance. Beaucoup acteurs ont lancé des projet de détection des risques de fraude en analysant les données de leur système d’information. Cependant, après des expérimentations démontrant la pertinence des technologies utilisées, la vague d’automatisation se heurte à des limites freinant son déploiement à l’ensemble des opérations. Force est de constater que l’industrialisation constitue un véritable défi pour les organisations. Pour le relever, deux séries d’actions apparaissent incontournables au regard des expériences menées.
Garantir la performance des algorithmes, un pré-requis avant toute mise à l’échelle
Les solutions automatisées de détection des risques de fraudes ayant démontré leur pertinence fonctionnelle, les regards se tournent désormais vers les performances des dispositifs en question dont les coûts à l’usage ou à la licence limitent le ROI. Or, garantir une performance permettant une industrialisation implique d’observer 3 séries de règles.
Le moteur de détection doit être correctement alimenté. La performance d’un algorithme est conditionnée par la qualité et la diversité des données qui l’alimentent notamment dans le cadre de son apprentissage. Or, il n’est pas rare de constater entre 5 et 10% d’erreurs de saisie malgré l’existence d’un pré-traitement. Dès lors la qualité de la donnée doit constituer un point de vigilance incontournable. Par ailleurs, l’ajout de données supplémentaires modifie le modèle de détection et le rend plus efficace. A cet égard, il convient de souligner la maturité des solutions de reconnaissance automatique de caractère (OCR – Optical Character Recognition) permettant de fiabiliser les données et d’en extraire automatiquement de nouvelles afin d’enrichir les modèles de détection existants. Avec un patrimoine de données enrichi et consolidé, la performance de détection est considérablement améliorée. Enfin, l’OCR permet de compléter le dispositif fondée sur l’analyse de la donnée par la détection de documents qui seraient falsifiés ou créés de toute pièce.
Les règles métier et l’organisation de chaque assureur doivent être intégrées. La modélisation des algorithmes doit aussi prendre en compte les règles métiers. Ces règles assurent la pertinence des détections au regard du contexte spécifique de chaque assureur et ajoutent une surcouche de performance à l’algorithme en lui proposant des moyens de contrôle supplémentaires et/ou compense un manque de données d’entrainement. Cette approche permet l’adjonction d’une brique d’intelligence dite « déductive » basée sur l’expérience de l’assureur à la brique d’intelligence « inductive » portée nativement par l’algorithme d’IA. Ce couplage débouche sur une réduction des faux positifs et donc une charge de travail optimisée.
Par ailleurs, compte tenu des volumes d’alertes qu’elles génèrent, les solutions automatisées de détection des risques de fraude ont un impact conséquent sur les méthodes et processus internes. Il est donc indispensable d’analyser préalablement l’organisation et les processus afin d’envisager les conditions optimales d’intégration de ce type de solution.
Enfin, compte tenu de performances pouvant être très variables en pratique, l’IA impose un déploiement progressif avec une phase préalable de test sur un jeu de données réelles. Tester les solutions en conditions réelles permettra de s’assurer des performances et d’en tirer toutes les conséquences sur le plan opérationnel en cernant les contraintes d’intégration de ces solutions.
L’arbitrage entre précision et rappel. Les deux facteurs antagonistes que sont la précision et le rappel président à la modélisation des algorithmes d’IA. Si l’on favorise la précision, les alertes générées seront alors plus pertinentes. Inversement, favoriser le rappel entrainera un grand nombre d’alertes de moindre pertinence qui, dans certains cas, ne seront pas toutes traitées faute d’un nombre suffisant d’analystes. Aussi, pour trouver un juste équilibre entre ces deux approches, il convient de prendre en compte le dimensionnement des ressources dédiées à l’analyse et l’existence ou non d’un processus de traitement optimisé favorisant la productivité.
Organiser et outiller avec pertinence le passage à l’échelle
Les diverses solutions existantes se heurtent souvent à des limites opérationnelles délaissées lors de l’initialisation des projets. Ces limites expliquent en grande partie la difficile mise à l’échelle comme en santé où la généralisation des contrôles a priori n’est pas sans poser de difficulté.
La nécessaire évolution de l’organisation. Les alertes générées par les solutions de détection automatique portent sur des risques devant être qualifiés par un collaborateur habilité. Cette qualification « humaine » aboutira dans la majorité des cas à une validation d’alertes qui seront traitées spécifiquement avec la mise en œuvre de mesures de contrôles supplémentaires. L’enjeu réside donc dans le traitement d’un volume d’alertes sans commune mesure avec l’existant. Or, faute d’avoir pensé au traitement spécifique induit par une détection industrielle, les alertes ne seront pas ou mal exploitées. Afin d’anticiper ce type de situation, il convient d’évaluer l’impact d’une mise à l’échelle sur l’organisation et le processus de validation, puis celui inhérent aux traitement des alertes en fonction du taux de pertinence cible des alertes.
L’explicabilité, un facteur essentiel de productivité. Les éléments ayant concouru à la détection d’un risque doivent être restitués et ce, sous un format ergonomique. Or, le format de restitution des informations relatives à l’alerte voire le principe même de leur restitution est conditionné par l’existence ou non d’un outil de gestion adapté. En pratique, bon nombre de démarches génère des alertes sous la forme d’un simple top. Faute d’explication et d’informations contextuelles, le collaborateur doit alors avant toute analyse rechercher les éléments entrant dans le modèle de détection de l’alerte… Cette carence est d’autant plus pénalisante que l’alerte présentée sous forme d’explication influe non seulement sur la rapidité de l’analyse mais également sur l’orientation des investigations.
L’adaptation du poste de travail. Le recours aux outils de case management apparaît très peu développé au sein des entreprises d’assurance. La simple interface de gestion des alertes généralement proposée par les solutions « clé en main » atteint ses limites lorsque les dossiers correspondants doivent faire l’objet d’une instruction spécifique. D’autre part, la lutte contre la fraude et les modèles de gestion associés mettent en présence de nombreux acteurs (délégataires, experts, enquêteurs…) dont la diversité des interactions et la coordination ne peuvent être assurées et pilotées à l’aide d’une simple interface en principe conçue pour un type précis d’alerte. Enfin, la sécurité et la conformité en matière d’échanges dématérialisés sensibles impliquent également le recours à un véritable outil de case management adapté à la gestion industrialisée des alertes positives que l’origine de la détection soit interne (solution IA, collaborateurs) ou externe (délégataires, experts) à l’entreprise.
En conclusion, avec des technologies matures et facilement interconnectables, l’industrialisation de la lutte contre la fraude de bout en bout devient une réalité y compris pour des acteurs à taille humaine. Cependant, l’intégration optimale de la démarche aux méthodes et processus métiers reste la pierre angulaire de ce type de projet stratégique et nécessite une réelle expertise et expérience en la matière.
Frédéric Nguyen-Kim, senior advisor assurance chez Talan Consulting ainsi que Théo Vialard, consultant en intelligence artificielle chez Talan Consulting.