J'ai longtemps pensé, comme beaucoup, que la loi suffisait à canaliser les excès numériques : si la discrimination est interdite, pourquoi des systèmes automatisés continuent-ils de trier des candidatures sur des critères qui ressemblent fort à des préjugés ? En enquêtant sur le terrain et en échangeant avec des juristes, des data scientists, des recruteurs et des victimes, j'ai compris que la réalité est plus complexe. Les algorithmes de recrutement discriminent malgré la loi pour des raisons techniques, organisationnelles et juridiques — et parce que la discrimination peut être à la fois subtile et masquée derrière des décisions présentées comme "objectives". Je vous explique comment cela fonctionne et, surtout, comment le prouver.
Pourquoi les algorithmes discriminent : comprendre les mécanismes
Il y a trois familles de raisons pour lesquelles un système automatisé de recrutement peut produire des résultats discriminants :
À cela s'ajoutent des boucles de rétroaction : un algorithme qui embauche en priorité un profil entraîne une augmentation de ce type de profil dans les données futures, renforçant ainsi le biais.
Le cadre légal : loin d'être absent mais parfois insuffisant
En France, la Loi Informatique et Libertés, le Code du travail et les principes anti-discrimination protègent les candidat·e·s. La CNIL a également publié des lignes directrices concernant les algorithmes décisionnels et l'obligation de transparence. Le Règlement Général sur la Protection des Données (RGPD) permet d'obtenir certaines informations via le droit d'accès ou le droit d'opposition. Et l'Union européenne avance son AI Act, qui devrait renforcer les obligations pour les systèmes à risque, dont les outils de recrutement.
Pourtant, la loi se heurte à trois limites pratiques :
Comment prouver la discrimination : méthodes pratiques
Prouver qu'un algorithme discrimine demande de la méthode. Voici les démarches que j'ai vues fonctionner, et celles que je recommande :
Mener des tests indépendants (audits)
Les audits peuvent être :
Exiger l'accès aux données et à la documentation
Le RGPD et la CNIL permettent d'obtenir des éléments :
Ces demandes peuvent révéler des variables utilisées ou au moins la logique générale du tri. Attention : les entreprises peuvent invoquer le secret des algorithmes, mais la CNIL attend des justifications et des garanties lorsque le système concerne des droits fondamentaux comme l'emploi.
Utiliser des métriques d'équité
Sur le plan technique, il existe des mesures standardisées :
Ces métriques ne "prouvent" pas à elles seules une intention discriminatoire, mais elles fournissent des éléments chiffrés utilisables en justice ou dans un rapport d'audit.
Recueillir des témoignages et des traces
Ne négligez pas l'approche classique : témoignages de candidat·e·s, échanges d'e-mails, captures d'écran d'interfaces qui indiquent des critères de filtrage, ou encore descriptions internes (procédures RH, présentation commerciale du logiciel). Ces preuves qualitatives s'assemblent souvent avec les analyses quantitatives pour bâtir un dossier solide.
Comparaison des méthodes : tableau synthétique
| Méthode | Ce qu'elle apporte | Limites |
|---|---|---|
| Audit par CV jumelés | Preuve empirique directe de traitement différentiel | Peut être contesté pour représentativité ; risque éthique et légal selon méthode |
| Analyse des logs et données | Chiffres, métriques d'équité, identification des variables | Nécessite accès aux données et compétences techniques |
| Droit d'accès / RGPD | Documents officiels et explications, obligations légales | Résistances des entreprises, délais |
| Témoignages et documents internes | Contexte, intention, pratique réelle | Preuves parfois subjectives sans appui technique |
Que faire concrètement si vous soupçonnez une discrimination ?
Voici une feuille de route que j'ai adaptée à partir des retours de victimes et des conseils d'experts :
Transparence algorithmique et responsabilité des éditeurs
Les grands acteurs (LinkedIn, Indeed, Taleo, SmartRecruiters, ou des start-ups spécialisées) ont la responsabilité de fournir des garanties : documentation technique, tests d'impact sur les droits fondamentaux, et moyens concrets de recours. Certaines entreprises commencent à publier des « model cards » ou des rapports d'impact éthique. Mais il reste un long chemin pour que ces pratiques deviennent la norme et non l'exception.
Pour finir — sans conclure — je veux insister sur deux choses : d'une part, la loi donne des outils, mais il faut du temps, des compétences et de la volonté pour les utiliser ; d'autre part, prouver la discrimination algorithmique exige de croiser méthodes empiriques, analyses techniques et démarches juridiques. Ce travail est collectif : les candidat·e·s, les associations, les chercheurs et les régulateurs doivent coopérer pour que la technologie ne remplace pas le sens commun et l'exigence d'égalité.