session-4-diapo
L’intervention de Marie Peyronnet a proposé une analyse juridique critique de l’usage des algorithmes et de l’intelligence artificielle dans les processus de recrutement. Si ces outils sont fréquemment présentés comme plus objectifs et susceptibles de réduire les biais humains, ils peuvent également reproduire, déplacer ou invisibiliser des discriminations existantes.
Marie Peyronnet distingue plusieurs usages des algorithmes dans le recrutement :
- outils d’aide à la décision (tri de CV, classement de candidatures, matching profils/postes),
- outils de décision automatisée,
- outils d’évaluation (tests, analyse vidéo, analyse comportementale, etc.).
Elle insiste sur le fait que, même lorsqu’il n’y a pas de décision entièrement automatisée, l’algorithme structure fortement la décision humaine, en hiérarchisant, filtrant ou orientant les choix.
L’un des points centraux de l’analyse porte sur le rôle des données et des choix de conception. Les algorithmes apprennent à partir de données historiques, elles-mêmes marquées par des inégalités passées, et reposent sur des critères de sélection qui ne sont jamais neutres. Des discriminations peuvent ainsi apparaître même en l’absence de critères explicitement sensibles, par le biais de variables indirectes ou corrélées.
L’intervention a également mis en évidence l’opacité de ces dispositifs et l’effet de « boîte noire » qu’ils produisent. Cette opacité complique l’identification des mécanismes discriminatoires et affaiblit les possibilités de contestation juridique, tant pour les candidat·es que pour les institutions chargées du contrôle.
Un point essentiel concerne la responsabilité des employeurs. Le recours à des outils algorithmiques ou à des systèmes d’IA ne constitue en aucun cas un transfert ou une dilution de responsabilité. En droit du travail, l’employeur demeure pleinement responsable des décisions de recrutement, y compris lorsque celles-ci sont appuyées ou partiellement automatisées par des dispositifs techniques. Le risque est alors celui d’une déresponsabilisation masquée, l’algorithme pouvant servir de justification technique à des décisions discriminatoires.
Enfin, l’intervention a souligné le rôle central, mais encore insuffisant, du cadre juridique existant, notamment du RGPD, et l’importance d’une intervention humaine réelle dans les décisions automatisées. L’IA ne peut constituer une solution aux discriminations à l’embauche qu’à des conditions strictes de transparence, de documentation, de contrôle humain effectif et de responsabilité juridique.