
Pôle Paiements et Transformation Digitale
L’intelligence artificielle (IA) qu’elle soit générative ou extractive soulève des préoccupations en matière de protection des données personnelles, partout où elle est utilisée, notamment en Europe et aux États-Unis.
Les applications d’IA peuvent traiter d’énormes quantités de données, ce qui nécessite des mesures pour garantir la confidentialité et la sécurité des informations personnelles. Elle se nourrit en effet de données collectées (personnelles ou non) expérimentales dans la plupart des cas. Toutefois, la question de la protection des données est moins accrue, lorsqu’on parle d’IA extractive surtout dans le cas des entreprises, parce que les données utilisées en input sont des données contrôlées, vérifiées et parfois règlementées. En revanche, pour les intelligences artificielles dites génératives, la question suscite plus de débats.
Les réglementations telles que le RGPD (Règlement Général sur la Protection des Données) en Europe visant à encadrer la collecte et le traitement des données, y compris dans le contexte de l’IA, pour protéger la vie privée des individus, a été complété récemment, par l’IA Act, pour donner un cadre juridique à cette nouvelle avancée.
Aujourd’hui l’IA permet de venir à bout des défis de notre société (numérisation, calculs, robotique, maladie, etc…). Cependant, la réglementation qui l’accompagne aussi bien en Europe qu’aux États-Unis, est perçue comme contraignante et peut être un frein véritable à l’avancée technologique
Une technologie indispensable, à contrôler ?
Déjà en 2017, le président russe Vladimir Poutine prévenait ainsi « L’intelligence artificielle est l’avenir de toute l’humanité. Elle présente des opportunités colossales, mais également des menaces qui sont difficiles à prévoir. Quiconque devient le leader de ce secteur deviendra le maître du monde » (Russia Today, 2017).
En Chine, la reconnaissance faciale est déjà utilisée pour identifier les personnes dont le comportement déroge avec les règles imposées par les autorités et le Parti. Et cette course, qui s’accélère, reproduit ce qu’a été la course à l’armement nucléaire, dans le passé.
D’autant plus que l’avance, la supériorité, des Américains semblent aujourd’hui, s’éroder au fil du temps.
À l’inverse, en Europe, les autorités avec l’Intelligence Artificielle Act (IA Act), ont fait le choix d’une régulation par le risque. En effet, le projet de réglementation européenne sur l’intelligence artificielle, voté récemment après d’âpres négociations entre les différents acteurs (cf. L’accord sur l’IA act adopté décembre 2023), vise à encadrer les applications de l’IA en interdisant les pratiques à risque et en établissant des mesures de contrôle pour les entreprises. Il prône une régulation par le risque. Les usages sont classés en quatre catégories, selon le danger potentiel qu’ils représentent. Plus le risque est important, plus les obligations sont fortes :
- Les IA à usage inacceptable sont totalement interdites : Scoring social, une notation des individus en fonction de leur fiabilité, leur origine, leur antécédent.
- Les IA à usage à haut risque (systèmes d’IA relatifs à l’éducation, aux services privés essentiels et publics, à la migration, aux ressources humaines) devront passer par des procédures d’évaluation préalable, et de contrôle de conformité avant de pouvoir être utilisées. Les entreprises devront mettre en place un système de gestion du risque, un contrôle humain du système, une documentation technique, une politique contraignante de gouvernance des données utilisées pour l’entraînement.
- Les usages à risque modéré ne sont soumis qu’à une obligation de transparence vis-à-vis des utilisateurs.
- Les usages à faible risque ne sont pas régulés par l’AI Act comme les jeux vidéo dotés d’une IA ou les filtres anti-spam.
USA & Europe : Équilibre entre régulation, protection de données et innovation.
De leur côté, les États-Unis ont pris, récemment plusieurs mesures pour réglementer le développement et l’utilisation de l’intelligence artificielle. En octobre 2023, le président Joe Biden, a publié un décret qui établit de nouvelles normes en matière de sûreté et de sécurité de l’IA, protège la vie privée des Américains, fait progresser l’équité et les droits civils, défend les consommateurs et les travailleurs tout en promouvant l’innovation et la concurrence. L’ordonnance exige que les développeurs des systèmes d’IA les plus puissants partage les résultats de leurs tests de sécurité et d’autres informations critiques avec le gouvernement américain. Il élabore également des normes, des outils et des tests pour s’assurer que les systèmes d’IA sont sûrs, sécurisés et dignes de confiance. À l’instar de l’IA Act, cette loi découle du “Blueprint for an AI Bill of Rights” qui établit un ensemble de cinq principes :
- Systèmes automatisés sûrs et efficaces
- Transparence et responsabilité
- Équité et non-discrimination
- Vie privée et sécurité
- Participation et inclusion
Des principes qui visent à protéger les droits et les valeurs démocratiques des Américains.
En résumé, que ce soit sur le vieux continent ou aux États-Unis, les autorités ont à cœur de promouvoir l’IA et son corollaire d’innovations et de progrès apportés dans nos sociétés tout en assurant la sécurité et les droits des utilisateurs.
Cependant, certains États européens craignent qu’une régulation excessive et contraignante bride les leaders comme Aleph Alpha (Allemagne) et Mistral AI (France), en rendant prohibitifs les coûts de développement. Aussi, après d’âpres discussions, les législateurs de l’UE ont finalement conclu un « accord politique » sur un texte (IA act) qui doit favoriser l’innovation en Europe, tout en limitant les possibles dérives de ces technologies très avancées.
Narcisse GBAGO
Consultant pôle paiements et transformation digitale