L’IA Act prévoit une place toute particulière pour les systèmes RH. À compter du 2 août 2026, les obligations renforcées pour les systèmes d’intelligence artificielle à haut risque, dont certains processus RH, entreront en application.
Quels sont les enjeux de l’IA Act ? Quels défis attendent les RH avec la pleine applicabilité du premier règlement au monde sur l’intelligence artificielle ? Comment la fonction RH doit-elle appréhender ce nouveau cadre ?
Pour répondre à ces questions, la rédaction de myRHline a échangé avec José Alberto Rodriguez Ruiz, DPO et Chief AI Governance Officer chez Cornerstone. Éditeur de solutions RH cloud, Cornerstone accompagne les entreprises sur des sujets clés comme le recrutement, la formation, la gestion des talents et la mobilité interne. Autant de domaines désormais directement concernés par l’IA Act.
À travers son éclairage, il revient sur les enjeux de cette nouvelle régulation européenne et sur les défis concrets qu’elle fait émerger pour les ressources humaines.
Les enjeux de l’IA Act : une nouvelle logique de régulation
Comme l’explique José Rodriguez, le texte de l’IA Act relève avant tout d’une logique de régulation des produits. L’intelligence artificielle étant abordée par les institutions européennes comme un système susceptible de générer des risques. Et ce, au même titre qu’un jouet, une voiture ou un dispositif médical.
De fait, l’enjeu central de l’IA Act se trouve dans la prévention des conséquences négatives à l’usage, notamment pour les personnes. Et non pas la cybersécurité en elle-même. En ce sens, l’IA Act vise à garantir que les systèmes mis sur le marché européen soient suffisamment sûrs, fiables et maîtrisés. Cette approche marque un changement de perspective important pour les entreprises, et en particulier pour les fonctions RH, grandes consommatrices d’outils HR Tech intégrant de l’IA.
Ainsi, le texte repose sur une classification des systèmes selon leur niveau de risque. Certains usages sont jugés inacceptables et donc interdits, comme le scoring social appliqué aux individus. D’autres relèvent du « haut risque » et sont autorisés sous conditions strictes. Les usages à faible risque sont quant à eux soumis à des obligations allégées, principalement en matière de transparence.
En matière de ressources humaines, cette classification est loin d’être théorique. Les systèmes d’IA utilisés pour la sélection de candidats, l’évaluation des performances ou la gestion des carrières entrent clairement dans la catégorie des systèmes à haut risque. Et pour cause : leur impact direct sur les trajectoires professionnelles justifie un encadrement renforcé.
IA Act : les défis à relever pour la fonction RH
RGPD, IA Act et nouvelles règles de conformité
Premier défi majeur : intégrer que l’IA Act ne remplace pas le RGPD. Les deux cadres juridiques coexistent et se complètent. Cependant, là où le RGPD protège les droits des personnes et encadre l’usage des données personnelles, l’IA Act s’intéresse au fonctionnement même des systèmes et à leurs effets.
Pour les équipes RH, cela signifie évoluer dans un environnement réglementaire plus dense. Un outil peut être conforme au RGPD tout en posant problème au regard de l’IA Act. Outre la gestion des données, la conformité se joue donc aussi sur la conception, l’entraînement et l’usage des algorithmes.
Les exigences liées aux systèmes à haut risque
Les systèmes d’IA qualifiés de « haut risque » impliquent un ensemble d’obligations nouvelles. Audits réguliers, documentation détaillée, traçabilité des recommandations et décisions, supervision humaine : autant d’exigences qui vont structurer le recours à l’IA dans les RH.
La supervision humaine, souvent mise en avant, ne constitue toutefois pas une solution magique.
Le simple fait qu’un recruteur valide une recommandation algorithmique ne garantit pas une réelle prise de recul. Lorsqu’un score ou un classement est présenté par un système d’IA, il tend à être perçu comme une forme de vérité. Cela peut créer une hésitation à contredire la machine, voire conduire à suivre ses recommandations par défaut. Dans ces conditions, le risque d’automatisation de fait est bien réel, même lorsqu’une supervision humaine est prévue.
En d’autres termes, il s’agit à la fois de conserver une capacité de décision autonome et de comprendre les limites des outils utilisés. Ceci afin que l’intelligence artificielle reste un outil d’aide à la décision, et non un substitut.
Changement de posture pour les professionnels RH
Au-delà des contraintes réglementaires, l’IA Act accélère une transformation plus profonde de la fonction RH. Le DPO de Cornerstone compare cette évolution à celle du pilotage aérien. Dans les faits, il ne s’agit pas tellement pour les professionnels de devenir des experts techniques. En revanche, ils devront, dans une certaine mesure, être des pilotes capables de configurer, superviser et ajuster des systèmes complexes.
Cette logique suppose une montée en compétences progressive. En particulier dans le but de :
- comprendre la différence entre IA prédictive et IA générative ;
- saisir que ces outils reposent sur des modèles statistiques et non sur une forme de « magie », et qu’ils ont leurs limitations.
C’est un fait : à terme, presque tous les processus RH intégreront une dimension algorithmique. Et ce, qu’il s’agisse de recrutement, de formation ou de mobilité interne. Dès lors, les RH sont amenés à devenir des « power users » de l’IA. Comme Excel s’est imposé comme un outil incontournable en finance, l’IA deviendra un composant standard des pratiques RH. Comme nous l’avons vu, la valeur résidera ainsi dans la capacité à paramétrer les outils, à interpréter leurs résultats et à en garder la maîtrise.
En parallèle, cette évolution renforce le rôle des éditeurs de solutions. La conformité à l’IA Act implique une surveillance continue des modèles, des audits réguliers et des équipes dédiées. Pour les entreprises utilisatrices, le choix des partenaires technologiques et la compréhension de leurs engagements deviendront des enjeux stratégiques à part entière.
