SYRTALS COMPLIANCE

Sandra_PION-scaled

Sandra PION

Directrice d’activité Syrtals Compliance

L’IA au service de la conformité sous conditions

La conformité réglementaire, préoccupation majeure des entreprises et des institutions financières, bénéficie du déploiement de l’intelligence artificielle, mais cela n’est pas sans risque si l’on n’y prête garde. Avec l’évolution rapide des technologies, la complexification des réglementations et les attentes des actionnaires et des clients, l’intelligence artificielle apparaît comme une solution prometteuse pour assurer la bonne conformité des organisations aux lois. Pour autant, l’intervention humaine ainsi que l’application de normes éthiques restent indispensables pour établir des bases solides pour l’IA. Quelles sont les avancées dans le secteur financier, les impacts de son utilisation et les défis à venir pour les organisations ?

Le déploiement de l’intelligence artificielle dans le secteur de la conformité en finance offre toute une série de développements.

Tout d’abord, la mise en œuvre des obligations LBC-FT (Lutte contre le Blanchiment de Capitaux et le Financement du Terrorisme), pesant sur les organismes assujettis en matière de surveillance des opérations, peut bénéficier de dispositifs automatisés, comme en témoigne le rapport publié par l’ACPR, l’Autorité de Contrôle Prudentiel et de Résolution en avril 2023 [1]. Autre exemple, l’outil d’IA « LUCIA », développé par l’ACPR pour des missions d’audit et qui, notamment, permet l’identification des profils types de risque par client, accélérant ainsi le processus de sélection des dossiers requérant une attention particulière, nécessite d’être secondé par une analyse humaine.

Ensuite, l’intelligence artificielle joue un rôle crucial dans la surveillance automatisée de quantités massives d’informations provenant de diverses sources. Elle offre, en effet, une puissance de calcul considérable et permet aux algorithmes d’analyser et de traiter efficacement cette masse de données en temps réel. Cela peut être particulièrement adapté aux établissements financiers dont le nombre de clients se compte en dizaines de millions et peuvent ainsi avoir des puits de données pesant déjà jusqu’à plusieurs pétaoctets, selon une tendance qui continue encore de s’accentuer [2].

Cependant, l’IA est, aujourd’hui, en général, bien moins adaptée pour des volumes moins conséquents.

L’IA, grand allié de la conformité

L’IA multiplie ses applications dans les domaines de la conformité en finance, comme par exemple dans :

  • la lutte contre la fraude : l’IA peut identifier des réseaux de fraudeurs, des faux documents, réaliser un travail graphique d’identification de personnes en connexion les unes avec les autres ;
  • l’identification d’abus de marché avec des scénarii affinés, par exemple pour le traitement de la voix ou des emails, et priorisés par l’IA ;
  • la transposition des réglementations en langage informatique, ce qui peut réduire les coûts d’interprétation et de mise en œuvre de la réglementation également en matière de déclaration des transactions ;
  • l’affinement des alertes, également présentées de manière plus ergonomique et ainsi réduire les faux « hits » (fausses alertes) sur les sanctions, embargos ;
  • le renforcement de la qualité des contrôles en éliminant les erreurs humaines, notamment dans les saisies manuelles de premier niveau pour des dossiers plus fiables et des analyses plus précises ;
  • la mise en œuvre des diligences LBC-FT. L’IA permet, par exemple, une catégorisation plus précise des alertes générées, et donc de concentrer les ressources sur les cas les plus pertinents.

Vers une éthique de l’IA

Si l’IA renforce la conformité des organisations financières en tout point, ses champs d’intervention nécessitent un environnement humain de validation et de contrôle pour garantir la qualité des résultats produits par l’IA. Par exemple, les analystes humains demeurent responsables de deux tiers des déclarations de soupçons transmises à TRACFIN, démontrant ainsi l’importance de l’expertise et de la compréhension humaine dans la détection des transactions suspectes.

L’intelligence artificielle permettra d’optimiser la composition des équipes et la nature des tâches en conformité avec, à la clé, la promesse d’une réduction des coûts et la possibilité, pour les équipes, de réaliser des tâches à vraies valeurs ajoutées, mais cela dépendra aussi du niveau de digitalisation des processus de l’entreprise et de la qualité de la donnée à disposition.

Enfin, le défi majeur du développement de l’IA dans la conformité du secteur financier repose sur deux facteurs de réussite. Outre le rôle essentiel de la vigilance humaine dans la lutte contre les activités illicites, l’IA pose des enjeux éthiques appelant à une grande vigilance. Le respect de la protection de l’information (RGPD), la sécurité des données, l’explicabilité et la transparence (les entreprises utilisant l’IA doivent justifier leurs décisions, surtout quand elles ont un impact direct sur les consommateurs) et le risque de biais ou discriminations sont autant de cadres à respecter.

Écrire sur la conformité aux réglementations aurait pu l’être par ChatGPT… Cela n’a pas été possible, la réglementation du secteur financier consolidée par l’analyse humaine et par l’éthique a beaucoup évolué ces dernières années et l’IA ne peut pas tout imiter !

[1] https://acpr.banque-france.fr/dispositifs-automatises-de-surveillance-des-operations-en-matiere-de-lcb-ft

[2] : La création de données numériques va exploser, Statista, 25 avril 2019 et article du Figaro (https://www.lesechos.fr/partenaires/dla-piper/intelligence-artificielle-dans-le-secteur-bancaire-et-financier-1294948)

L’AI Act, première loi globale sur l’IA au monde pour 2024 ?

En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l’UE pour l’IA [3]. Ce projet de Règlement UE, appelé « l’AI Act », propose que des systèmes d’IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation.

En France, la CNIL a déclaré, le 5 avril 2022, que l’intelligence artificielle pose des questions cruciales et nouvelles, tout particulièrement au regard de la protection des données et a rappelé les grands principes de la loi Informatique et Libertés et du RGPD à suivre, ainsi que ses positions sur certains aspects plus spécifiques [4].

Le 14 juin 2023, le Parlement européen a adopté sa position de négociation sur la loi sur l’IA. La priorité du Parlement est de veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement [5].

Les pourparlers sont désormais ouverts avec les pays de l’UE au sein du Conseil afin de statuer sur la forme finale de la loi. L’objectif est de parvenir à un accord d’ici la fin de l’année 2023 pour une date présumée d’application en 2024.

[3] : EUR-Lex – 52021PC0206 – EN – EUR-Lex (europa.eu) et Proposition de règlement établissant des règles harmonisées en matière d’intelligence artificielle | Façonner l’avenir numérique de l’Europe (europa.eu)  et https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai

[4] : L’intelligence artificielle pose des questions cruciales et nouvelles, tout particulièrement au regard de la protection des données. La CNIL rappelle les grands principes de la loi Informatique et Libertés et du RGPD à suivre, ainsi que ses positions sur

https://www.cnil.fr/fr/intelligence-artificielle/ia-comment-etre-en-conformite-avec-le-rgpd

[5] : Règles sur l’IA : ce que veut le Parlement européen. https://www.europarl.europa.eu/news/fr/headlines/society/20201015STO89417/regles-sur-l-ia-ce-que-veut-le-parlement-europeen