MGEN adopte l’intelligence artificielle générative avec prudence. Face aux risques éthiques inhérents à cette technologie, elle détaille ses stratégies d’encadrement : contrôle humain, gouvernance des données et anticipation de la réglementation. Revenons sur l’échange avec CIO-Online.com.
L’intelligence artificielle générative, par son caractère non déterministe, soulève des questions éthiques cruciales, particulièrement pour des organisations la MGEN, soumises à des exigences de transparence et d’équité.
Arnaud Méjean, DSI de la mutuelle et DG du GIE MGEN Technologies, explique avoir adopté une approche sélective en 2024, privilégiant la valeur métier et la qualité des données disponibles avant de passer en production. Pour lui, « pas question de lancer des centaines de prototypes ».
La mutuelle s’appuie sur un environnement sécurisé via un accord avec Sens (Thalès/Google) pour maîtriser ses données. Un Lab IA a été créé pour accompagner les métiers, avec des usages actuels en interne (DSI) et bientôt des chatbots pour améliorer la relation client.
Face aux enjeux liés aux données sensibles, notamment de santé, MGEN a anticipé la réglementation comme l’AI Act dès 2023. Béatrice Cateaux, DPO de la MGEN, dont le rôle s’est élargi à la conformité et à l’éthique des IA, explique : « Nous avons pris le parti de capitaliser sur ce qui avait été fait pour le RGPD et de mettre à jour notre dispositif et notre gouvernance de la donnée, notamment personnelle. »
Une méthode de classification des IA par les risques a été mise en place pour sécuriser l’innovation sans la freiner. La vigilance porte sur la qualité de la data et le contrôle humain. « Un des points clefs consiste à veiller à la qualité de la donnée, pour ne pas conduire à des discriminations ou amplifier des inégalités », souligne Béatrice Cateaux. Une approche graduée adapte les mesures de maîtrise aux risques identifiés, complétée par le RSSI qui garantit la sécurité dès la conception des applications d’IA.