La transformation IA des RH est en marche depuis plusieurs années, mais elle s’est accélérée en 2024 avec la démocratisation des LLMs. Analyse de CV, matching de compétences, entretiens vidéo analysés par IA, personnalisation des parcours de formation, détection du risque de départ — les usages se multiplient. Avec eux, les opportunités… et les risques réels de discrimination et de non-conformité réglementaire.
État des lieux : l’IA dans les RH françaises en 2025
Ce qui est déjà largement utilisé
Les ATS (Applicant Tracking Systems) avec IA La majorité des ATS du marché (Lever, Greenhouse, Workday, SAP SuccessFactors, mais aussi des solutions françaises comme Beetween ou Flatchr) intègrent maintenant des fonctionnalités IA :
- Parsing de CV (extraction structurée des informations)
- Matching automatique entre profils et offres
- Scoring des candidatures
- Rédaction assistée des offres d’emploi
Les outils de sourcing IA Des outils comme HireEZ, Eightfold AI ou Paradox (Olivia) permettent de sourcer des candidats passifs sur LinkedIn et d’autres plateformes en identifiant les profils correspondant aux critères recherchés.
Les chatbots de recrutement Pour le premier contact, la collecte d’informations et les réponses aux FAQ candidats, les chatbots de recrutement réduisent la charge administrative des équipes TA.
Ce qui émerge en 2025
L’analyse des entretiens vidéo Des plateformes comme HireVue, Pymetrics ou Retorio proposent d’analyser les entretiens vidéo enregistrés pour évaluer certaines dimensions comportementales.
⚠️ Controverse majeure : ces outils ont été largement critiqués pour leurs biais potentiels. En 2024, HireVue a supprimé ses fonctionnalités d’analyse faciale sous pression réglementaire. La prudence s’impose.
Les “skills intelligence platforms” Des plateformes comme Eightfold AI, Gloat ou TechWolf cartographient les compétences de l’ensemble des collaborateurs et identifient les gaps pour la mobilité interne et la formation.
La génération de parcours de formation personnalisés Les LLMs permettent de créer des recommandations de formation personnalisées en croisant le profil du collaborateur, ses objectifs, et les besoins de l’entreprise.
Les risques : pourquoi l’IA RH exige une vigilance particulière
Le biais algorithmique dans le recrutement
C’est le risque le plus documenté. En 2018, Amazon a dû abandonner son outil de recrutement IA après avoir constaté qu’il discriminait les candidatures féminines — entraîné sur des données historiques de recrutement majoritairement masculines, il avait “appris” à défavoriser les femmes.
Les biais peuvent provenir de plusieurs sources :
-
Données d’entraînement biaisées : si les données historiques reflètent des pratiques discriminatoires passées, le modèle les reproduira.
-
Proxies de discrimination : le code postal, le nom de l’école, ou le style d’écriture du CV peuvent servir de proxies pour des attributs protégés (origine ethnique, milieu social).
-
Critères implicites : des critères comme “culture fit” ou “énergie” peuvent masquer des préférences discriminatoires.
Mesures de mitigation :
- Tests de disparate impact réguliers (vérifier que les taux de sélection ne varient pas significativement selon le genre, l’âge, l’origine)
- Audit externe des algorithmes
- Anonymisation des CV (suppression du nom, photo, âge) avant le scoring IA
Le cadre juridique : ce qui est interdit, ce qui est encadré
En droit français
Article L. 1132-1 du Code du travail : prohibe toute discrimination dans le recrutement en raison de l’origine, du sexe, de l’âge, du handicap, et 22 autres critères.
Si un algorithme de recrutement produit des résultats discriminatoires, l’employeur peut être tenu responsable — même si la discrimination n’était pas intentionnelle.
Article L. 1221-8 : depuis 2018, les entreprises de plus de 10 salariés doivent informer les candidats quand leur candidature est traitée par un outil automatisé.
Sous l’AI Act
Les systèmes de recrutement et d’évaluation des candidats sont classés à haut risque (Annexe III). Obligations :
- Supervision humaine obligatoire
- Transparence envers les candidats
- Possibilité de contester les décisions
- Documentation technique
- Tests de biais préalables
Sous le RGPD
- Les candidats ont le droit de ne pas faire l’objet d’une décision uniquement automatisée (Article 22)
- Information obligatoire sur l’usage de l’IA
- DPIA obligatoire pour le traitement automatisé de données de candidats à grande échelle
Bonnes pratiques : comment utiliser l’IA en RH de façon responsable
Recrutement
1. Utiliser l’IA pour accélérer, pas pour décider L’IA peut trier les candidatures volumineuses, mais la décision d’entretien doit rester humaine. Le modèle “IA pré-sélectionne, humain décide” est la norme recommandée.
2. Tester les biais régulièrement Tous les 6 mois, analysez les taux de sélection par genre, âge, et origine perçue. Des disparités inexpliquées sont un signal d’alarme.
3. Être transparent avec les candidats Mentionnez dans vos offres d’emploi et dans vos confirmations de réception que vous utilisez des outils IA dans le traitement des candidatures. Proposez une voie de recours.
4. Documenter vos critères Les critères utilisés par votre ATS doivent être explicites, documentés, et liés à des exigences réelles du poste.
Évaluation et gestion des talents
5. L’IA comme outil de dialogue, pas de jugement Les évaluations de performance assistées par IA doivent servir de support à la conversation manager-collaborateur, pas la remplacer.
6. Attention aux systèmes de “surveillance” déguisés Certains outils RH collectent des données comportementales très granulaires (temps de réponse aux emails, activité sur les outils, patterns de présence). Ces données peuvent créer un sentiment de surveillance qui nuit à la confiance et la motivation.
7. Consentement et transparence pour les salariés En France, tout système de collecte de données sur les salariés doit être soumis à information/consultation du CSE. Les salariés ont le droit d’être informés et de contester.
Formation
8. Personnalisation sans sur-segmentation Les LLMs permettent de recommander des parcours personnalisés. Veillez à ne pas “enfermer” les collaborateurs dans des trajectoires prédéfinies — la surprise et l’exploration sont importantes pour la créativité et le développement.
9. Évaluation de l’efficacité Mesurez si les recommandations IA améliorent effectivement les performances ou la satisfaction. L’algorithme peut optimiser pour des métriques qui ne correspondent pas à vos vrais objectifs.
Outils recommandés (avec précautions)
Pour le recrutement
| Outil | Usage | Précaution |
|---|---|---|
| Workday AI | ATS + matching | Vérifier les biais régulièrement |
| LinkedIn Recruiter AI | Sourcing | Attention aux bulles de filtre |
| Paradox (Olivia) | Chatbot screening | Garder voie humaine accessible |
| Textio | Rédaction d’offres inclusive | Bonne pratique recommandée |
Pour l’évaluation des compétences
| Outil | Usage | Précaution |
|---|---|---|
| Eightfold AI | Cartographie compétences | Data quality critique |
| TechWolf | Skills inference depuis données existantes | Validation humaine |
| Pymetrics | Évaluation cognitive (jeux) | Validité prédictive à vérifier |
Pour la formation
| Outil | Usage | Précaution |
|---|---|---|
| 360Learning | LMS avec IA collaborative | Français, bien adapté PME |
| LinkedIn Learning | Recommandations IA | Catalogue anglais dominant |
| Cornerstone | CSOD enterprise LMS | Coût élevé, enterprise |
Questions fréquentes
Notre logiciel RH dit qu’il “respecte le RGPD” — est-ce suffisant pour l’AI Act ? Non. La conformité RGPD et la conformité AI Act sont deux choses distinctes. Un logiciel conforme RGPD peut quand même ne pas respecter les exigences AI Act pour les systèmes à haut risque (supervision humaine, documentation technique, tests de biais).
Peut-on utiliser ChatGPT pour analyser des CV ? Avec des précautions. Si vous copiez des CV avec des données personnelles dans ChatGPT.com (version grand public), vous potentiellement violez le RGPD (transfert vers des serveurs hors EU sans garanties). Via l’API OpenAI Enterprise ou Claude for Work, avec politique de non-entraînement, c’est acceptable avec une DPIA documentée.
Le CSE doit-il être consulté avant d’introduire un outil IA RH ? Oui. Selon l’article L. 2312-38 du Code du travail, le CSE doit être informé et consulté avant tout déploiement d’outils de surveillance ou de systèmes automatisés d’aide à la décision affectant les salariés.
Conclusion
L’IA dans les RH offre des gains de productivité réels et la possibilité de construire des processus plus cohérents et moins sujets aux biais humains ponctuels. Mais elle peut aussi institutionnaliser des biais systémiques si elle n’est pas soigneusement auditée et encadrée.
La règle d’or : l’IA amplifie ce qu’on lui donne. Si vos processus RH sont équitables, l’IA peut les rendre plus efficaces. Si vos données historiques reflètent des inégalités, l’IA va les reproduire et les accélérer.
BetterPeople propose des formations spécifiques RH sur l’usage responsable de l’IA : pour les équipes RH, les managers recruteurs, et les représentants du personnel. Voir notre programme.
Prêt à transformer votre organisation avec l'IA ?
Réservez un diagnostic gratuit de 30 minutes avec notre équipe.