Depuis plusieurs mois, nous assistons à une accélération inédite, voire historique, du développement des systèmes d’IA. Pourtant, leur utilisation soulève encore bon nombre de questions. Notamment d’un point de vue éthique, juridique et sécuritaire. Mais également vis-à-vis de la protection des données.
Naturellement, la Commission nationale de l’informatique et des libertés s’est emparée du sujet. Après la création d’un service dédié à l’intelligence artificielle en début d’année, l’autorité administrative vient de publier sa stratégie en vue d’encadrer ces technologies.
Ce plan d’action de la CNIL se décline en 4 objectifs : appréhender, encadrer, accompagner et contrôler.
Décryptage de la rédaction MyRHline dans cet article.
Comprendre les systèmes d’intelligence artificielle
Pour réguler le développement des IA, la CNIL indique en premier lieu la nécessité d’en appréhender le fonctionnement. Ceci afin de déterminer l’impact des systèmes d’intelligence artificielle sur les individus.
En effet, la mécanique de l’intelligence artificielle repose sur le traitement d’un volume colossal de données. Celles-ci étant le plus souvent récoltées sur internet.
Dans le cas des IA génératives, c’est-à-dire capables de créer du contenu « à la demande », ces informations peuvent être publiques ou provenir de sources privées. Et ce, sans avoir un caractère personnel.
Mais ces mêmes systèmes ont aussi la capacité de capter des données personnelles accessibles en ligne. Or, l’opacité actuelle des outils et, par conséquent, la manière dont ils traitent ces données suscitent la défiance.
Pour appréhender le fonctionnement de ces modèles d’IA, le plan d’action de la CNIL précise plusieurs axes d’étude :
- les principes de loyauté et de transparence appliqués aux systèmes d’IA ;
- les répercussions de l’usage des données par l’IA sur les droits individuels ;
- la lutte contre les biais et les discriminations ;
- les risques en matière de sécurité.
Par ailleurs, la Commission prévoit une analyse approfondie des enjeux de protection des données : face aux méthodes de scraping employées pour alimenter et entraîner les outils d’intelligence artificielle (conception des algorithmes) d’une part, et au regard de l’utilisation des données transmises par les utilisateurs eux-mêmes d’autre part (usage des IA).
Définir les règles d’encadrement de l’intelligence artificielle
Second volet du plan d’action de la CNIL : définir les règles d’encadrement de l’intelligence artificielle, en conformité avec le RGPD.
En pratique, l’objectif est double. D’abord, il s’agit d’inciter à l’émergence de modèles vertueux et respectueux des données personnelles. Puis de préparer les fournisseurs de cette industrie à l’arrivée de la loi européenne sur l’IA.
En plus des ressources qu’elle partage déjà, l’instance française entend donc poursuivre ses réflexions. Ceci en vue de formuler des recommandations concrètes sur la conception et l’éthique des outils d’intelligence artificielle, y compris les IA génératives comme ChatGPT.
Bases de données, responsabilité des parties, bonnes pratiques en matière d’entraînement des modèles d’IA, gestion des droits… Ces différents sujets seront analysés par la CNIL et feront l’objet de publications successives dès cet été.
Encourager la recherche et le développement de l’IA sur le territoire
Le développement d’un écosystème d’intelligence artificielle, français et européen, est une autre ambition de la CNIL. En ce sens, elle souhaite fédérer, accompagner et soutenir les entreprises de l’IA.
Ainsi, elle annonce par exemple préparer un appel à projets sur l’IA au sein du secteur public par le biais de son dispositif « bac à sable ». Tout comme elle l’a déjà fait lors d’éditions précédentes dans les domaines de la EdTech (2022) et de la santé (2021).
Le régulateur précise par ailleurs sa volonté de travailler en synergie avec les différents acteurs de l’IA (entreprises innovantes, équipes de recherche & développement…).
Le but étant de trouver le juste équilibre. Pour que ces acteurs s’engagent dans la conception et l’innovation d’outils dignes de confiance et conformes au RGPD. Sans que les règles ne représentent un frein à l’innovation française et européenne.
Contrôler les outils d’intelligence artificielle
En plus du sujet (épineux) de la vidéosurveillance « augmentée », la CNIL précise que des actions d’audit et de contrôle seront déployées sur les systèmes d’intelligence artificielle.
À ce titre, la Commission se penchera par exemple sur l’usage de l’IA pour la lutte contre la fraude. Ainsi que sur l’instruction des plaintes déposées, à l’encontre d’OpenAI notamment.
D’une manière plus générale, elle prévient qu’une attention particulière sera portée au respect des obligations en matière de protection des données. Cela signifie que l’instance administrative vérifiera, entre autres :
- la réalisation d’une AIPD visant à démontrer la conformité du traitement des données (obligatoire dans le cas d’un risque élevé pour les droits et libertés des individus) ;
- les mesures prises pour informer les personnes ;
- les dispositions d’exercices des droits.
Une réglementation des systèmes d’IA essentielle à la protection des données
Santé, transport, industrie 4.0, monde du travail… Les programmes d’intelligence artificielle constituent un avantage stratégique en matière de performance économique, mais aussi de bien-être sociétal. Il n’empêche qu’en l’absence d’une législation claire, leur usage des données inquiète.
C’est d’ailleurs pour cela que l’Italie a suspendu temporairement l’accès à ChatGPT sur son territoire un peu plus tôt dans l’année.
En réalité, selon le Laboratoire d’innovation numérique de la CNIL (LINC), le RGPD est un outil pertinent et applicable à l’IA. Le projet européen de réglementation sur l’intelligence artificielle, actuellement en discussion, servira alors à préciser et renforcer les dispositions existantes en matière de protection des données personnelles.
Avec son plan d’action, la CNIL anticipe et prend les devants. Pour préparer les citoyens, entreprises et acteurs de l’IA à l’avènement d’intelligences artificielles sûres, transparentes, traçables, non discriminatoires et respectueuses de l’environnement.
Ces articles pourraient vous intéresser :
- Quel sera l’impact de ChatGPT sur les RH ?
- L’Impact de l’IA au travail : le rapport d’enquête du LaborIA
- Qu’est-ce que le metaverse RH ?