
Pôle Contrôle et Conformité Interne
La future croissance des entreprises dépend étroitement de leur capacité à suivre l’évolution technologique, d’où le recours à l’intelligence artificielle. Nous commençons par la définition de ce concept qui questionne beaucoup et fait partie de notre quotidien :
L’IA c’est quoi ?
Pour le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité
Dans cet article, nous vous présenterons, sur la base de deux questions centrales, les enjeux de cette nouvelle technologie pour les sociétés et en particulier les enjeux liés au domaine de la conformité et du contrôle interne.
-
Comment l’IA peut-elle être un levier de performance pour les entreprises ?
L’automatisation robotisée :
Comme c’est le cas dans plusieurs entreprises, certaines tâches réalisées par l’être humain, notamment celles qui ont un caractère répétitif, peuvent être prises en charge par les outils de l’IA. Nous pouvons citer à titre d’exemple le métier de conseiller qui vise à accompagner le client dans certaines démarches comme la souscription des contrats, le conseil à distance, la saisie des données, le traitement de certaines opérations de Back & Middle office, etc. Le but est d’utiliser des scripts et autres méthodes pour automatiser l’action humaine : génération automatiques des textes, reconnaissance automatique de la parole, agents virtuels, reconnaissance biométrique et autres.
La résolution des problèmes complexes :
L’évolution de la technologie de l’intelligence artificielle renforce la capacité des entreprises à trouver des solutions rapides à des sujets complexes, c’est le cas de la détection des fraudes, des anomalies et des irrégularités. Nous prenons l’exemple du contrôle des alertes LCB-FT et des opérations atypiques, un processus qui consiste à collecter les informations et documents juridiques pour effectuer les due diligences, afin d’assurer une connaissance approfondie du client, y compris l’étude de son comportement financier, pour ensuite réaliser les contrôles PPE, sanctions et négative news, dont l’intérêt est de déterminer la notation du risque de BC-FT et gérer ce risque en fonction du score du client. Ce processus nous mène à prendre une décision sur la validation de la poursuite de la relation d’affaires. L’IA peut intervenir dans ce cadre et réduire le niveau de complexité de ce problème de détection, en assurant la collecte des justificatifs à demander au client, la reconnaissance de ses justificatifs, la génération automatique du rapport d’investigation ou la rédaction des déclarations de soupçons. Au lieu de passer une dizaine de minutes à connaître l’identité réelle du client et analyser ses comptes en passant par les différents outils internes mis à disposition des agents de la conformité, l’IA nous permettra en un seul clic, de générer toutes les informations nécessaires au traitement des alertes en quelques secondes, encore plus, à l’aide de la génération automatique des textes, l’outil peut nous fournir un rapport d’investigation complet dans un bref délai.
Le contrôle & la prise de décision :
L’activité de contrôle nécessite la définition du périmètre de contrôle et la sélection d’un échantillon représentatif bien déterminé, en se basant sur le nombre d’occurrences, le type de tests, la taille de l’environnement de contrôle et autres éléments qui sont définis par les lignes directrices qui fixent le cadre du contrôle. L’IA intervient dans ce cadre en proposant l’automatisation des procédures de contrôle interne, en sélectionnant automatiquement les échantillons, la vérification des preuves de contrôle, l’analyse de la documentation, le testing du design et l’efficacité des contrôles. L’objectif est d’aider les personnes concernées à prendre une décision sur la base des résultats de contrôles réalisés par l’outil, afin d’avoir plus de visibilité sur le degré de sévérité du risque que le contrôle est censé atténuer. Nous prenons l’exemple de la cellule anti-blanchiment française « Tracfin », qui stipule qu’elle analyse plusieurs millions de documents financiers chaque année grâce à des algorithmes pour remonter les filières mafieuses et terroristes[1].
-
Quels sont les risques de l’IA pour les entreprises ?
Le risque de dépendance :
Comme la plupart des entreprises n’ont pas la possibilité d’internaliser les systèmes d’IA, elles se trouvent obligées à externaliser cette activité, d’où le risque de dépendance à l’égard de tiers.
Le risque humain :
L’objectif principal de l’IA est de remplacer l’être humain ce qui entraînera une modification radicale du marché de travail, d’où la disparition de certaines fonctions qui deviendront obsolètes face à ce que l’IA peut nous apporter en termes de performance, sachant que rien ne peut substituer le contact humain. Remplacer l’être humain par la machine, c’est condamner les relations humaines à se déconnecter et à s’isoler. Encore plus, les professionnels des RH peuvent se trouver incapables à comprendre la logique derrière une décision prise par l’IA, ceci expose l’entreprise au risque de discrimination, par exemple, en matière de diversité, les algorithmes peuvent sélectionner des profils issus des mêmes universités, d’où l’importance de passer des tests de sélection (évaluation des soft skills des candidats), car l’IA est un outil d’aide à la décision et ne peut être un outil de sélection.
Le risque d’erreur :
Il représente l’une des limites des systèmes de l’IA qui peuvent devenir source de dérapage voire de scandales pour les entreprises. Le MIT[2] à découvert que les bases de données utilisées pour entraîner les algorithmes d’intelligence artificielle comptaient beaucoup d’erreurs. Les données images, audio ou textes souffrent de mauvais étiquetages risquant de nuire à l’efficacité finale[3]. Ceci présente un impact sévère pour les entreprises avec une probabilité de survenance à court et moyen terme, ce qui remet en question le niveau de crédibilité des systèmes de l’IA concernant la prise de décision.
Le risque réglementaire :
L’analyse et le traitement des milliers de données par les outils de l’IA peut générer un risque de non-conformité aux lois et réglementations en vigueur, notamment en ce qui concerne la RGPD (article 6, 12, 15 et 17 du RGPD). Nous citons l’exemple de Clearview, qui a été sanctionné par la CNIL, à la suite de la réception des plaintes pour le non-respect de la vie privée des utilisateurs, du fait que l’outil a collecté environs 20 milliard d’images à travers le monde sans le consentement des utilisateurs, ce qui est considéré comme violation de la vie privée. Sachant que Clearview est un outil de prise de décision pour les périmètres d’activités de certaines grandes entreprises, il fait partie aussi de l’un des outils indispensables pour la gestion du PCA, et par conséquences, une simple défaillance dans l’outil pourra entraîner un risque d’un niveau de sévérité critique.
En conclusion, la meilleure solution est de suivre l’évolution technologique en prenant en compte les aléas de cette nouvelle source de performance ; en parallèle, il faut se méfier des risques auxquels les individus et les entreprises sont confrontés, d’où l’importance de mettre en place un système de contrôle interne efficace pour mieux gérer les risques de l’IA.
[1] https://www.theiia.org/globalassets/site/chapters/canada/quebec/montreal/transformation-numerique—etat-de-question-num-2—nov19.pdf
[2] Massachusetts Institute of Technology
[3] https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/les-bases-erronees-de-l-intelligence-artificielle_153254.
CHLIAH Othmane – CMG ADVISORY