J'ai longtemps pensé, comme beaucoup, que la loi suffisait à canaliser les excès numériques : si la discrimination est interdite, pourquoi des systèmes automatisés continuent-ils de trier des candidatures sur des critères qui ressemblent fort à des préjugés ? En enquêtant sur le terrain et en échangeant avec des juristes, des data scientists, des recruteurs et des victimes, j'ai compris que la réalité est plus complexe. Les algorithmes de recrutement discriminent malgré la loi pour des raisons techniques, organisationnelles et juridiques — et parce que la discrimination peut être à la fois subtile et masquée derrière des décisions présentées comme "objectives". Je vous explique comment cela fonctionne et, surtout, comment le prouver.

Pourquoi les algorithmes discriminent : comprendre les mécanismes

Il y a trois familles de raisons pour lesquelles un système automatisé de recrutement peut produire des résultats discriminants :

  • Les données d'entraînement reflètent des biais historiques. Si un algorithme apprend sur des CV ou des recrutements passés qui favorisaient certains profils (hommes, personnes d'un certain âge, diplômés de certaines écoles), il va reproduire ces préférences. C'est ce qui s'est passé, de façon célèbre, chez Amazon : leur système de recrutement a pénalisé les CV féminins parce que les embauches précédentes étaient majoritairement masculines.
  • Les variables-proxies masquent des critères interdits. Un algorithme peut utiliser des informations apparemment neutres (code postal, activités extra-professionnelles, universités) qui corrèlent fortement avec le genre, l'origine ou la capacité financière. Ces proxies permettent de contourner la loi sans jamais utiliser explicitement la mention d'une catégorie protégée.
  • Les objectifs optimisés ne prennent pas en compte l'équité. Les modèles sont souvent conçus pour maximiser des KPI opérationnels (taux d'embauche, durée moyenne d'emploi, productivité présumée). Si l'équité n'est pas intégrée à la fonction de coût, l'algorithme favorisera la performance mesurée au détriment de l'égalité des chances.
  • À cela s'ajoutent des boucles de rétroaction : un algorithme qui embauche en priorité un profil entraîne une augmentation de ce type de profil dans les données futures, renforçant ainsi le biais.

    Le cadre légal : loin d'être absent mais parfois insuffisant

    En France, la Loi Informatique et Libertés, le Code du travail et les principes anti-discrimination protègent les candidat·e·s. La CNIL a également publié des lignes directrices concernant les algorithmes décisionnels et l'obligation de transparence. Le Règlement Général sur la Protection des Données (RGPD) permet d'obtenir certaines informations via le droit d'accès ou le droit d'opposition. Et l'Union européenne avance son AI Act, qui devrait renforcer les obligations pour les systèmes à risque, dont les outils de recrutement.

    Pourtant, la loi se heurte à trois limites pratiques :

  • la difficulté technique à prouver la causalité entre une décision et un critère protégé ;
  • le caractère opaque de beaucoup de solutions commerciales (boîtes noires, secret industriel) ;
  • les ressources et compétences nécessaires pour mener des enquêtes techniques ou juridiques approfondies.
  • Comment prouver la discrimination : méthodes pratiques

    Prouver qu'un algorithme discrimine demande de la méthode. Voici les démarches que j'ai vues fonctionner, et celles que je recommande :

    Mener des tests indépendants (audits)

    Les audits peuvent être :

  • Audit externe par des tests d'intrusion : déposer des CV "jumelés" (des profils identiques sauf pour la variable suspecte — prénom, photo, code postal) pour mesurer les différences de traitement. Ce sont des "audit studies" familiers aux sociologues et aux associations de lutte contre les discriminations.
  • Audit technique : demander à un expert en data science d'examiner un échantillon de décisions, de reconstituer des modèles explicatifs et de calculer des métriques d'équité (disparate impact, taux de faux positifs/negatifs par groupe, etc.).
  • Audit de conformité : solliciter un cabinet juridique pour lier les preuves techniques aux infractions prévues par la loi (discrimination directe/indirecte).
  • Exiger l'accès aux données et à la documentation

    Le RGPD et la CNIL permettent d'obtenir des éléments :

  • droit d'accès aux données personnelles traitées ;
  • droit à la portabilité ou copie des profils analysés ;
  • demandes d'explication sur les critères généraux du traitement (droit d'information sur le fonctionnement du système).
  • Ces demandes peuvent révéler des variables utilisées ou au moins la logique générale du tri. Attention : les entreprises peuvent invoquer le secret des algorithmes, mais la CNIL attend des justifications et des garanties lorsque le système concerne des droits fondamentaux comme l'emploi.

    Utiliser des métriques d'équité

    Sur le plan technique, il existe des mesures standardisées :

  • Disparate Impact (rapport de sélection entre groupes) ;
  • Equal opportunity (égalité de taux de vrais positifs) ;
  • Statistical parity (parité statistique).
  • Ces métriques ne "prouvent" pas à elles seules une intention discriminatoire, mais elles fournissent des éléments chiffrés utilisables en justice ou dans un rapport d'audit.

    Recueillir des témoignages et des traces

    Ne négligez pas l'approche classique : témoignages de candidat·e·s, échanges d'e-mails, captures d'écran d'interfaces qui indiquent des critères de filtrage, ou encore descriptions internes (procédures RH, présentation commerciale du logiciel). Ces preuves qualitatives s'assemblent souvent avec les analyses quantitatives pour bâtir un dossier solide.

    Comparaison des méthodes : tableau synthétique

    Méthode Ce qu'elle apporte Limites
    Audit par CV jumelés Preuve empirique directe de traitement différentiel Peut être contesté pour représentativité ; risque éthique et légal selon méthode
    Analyse des logs et données Chiffres, métriques d'équité, identification des variables Nécessite accès aux données et compétences techniques
    Droit d'accès / RGPD Documents officiels et explications, obligations légales Résistances des entreprises, délais
    Témoignages et documents internes Contexte, intention, pratique réelle Preuves parfois subjectives sans appui technique

    Que faire concrètement si vous soupçonnez une discrimination ?

    Voici une feuille de route que j'ai adaptée à partir des retours de victimes et des conseils d'experts :

  • Rassembler toutes les preuves administratives (e-mails, offres, descriptions de poste).
  • Effectuer un audit de CV jumelés si possible ou contacter une association spécialisée (SOS Racisme, Défenseur des droits, etc.).
  • Faire une demande d'accès aux données (RGPD) et conserver toutes les réponses officielles.
  • Consulter un·e juriste pour évaluer les possibilités de saisine du Défenseur des droits ou du tribunal.
  • Si vous êtes une entreprise concernée : engager un audit externe, publier une "model card" ou une "datasheet" et intégrer des métriques d'équité dans votre processus de recrutement.
  • Transparence algorithmique et responsabilité des éditeurs

    Les grands acteurs (LinkedIn, Indeed, Taleo, SmartRecruiters, ou des start-ups spécialisées) ont la responsabilité de fournir des garanties : documentation technique, tests d'impact sur les droits fondamentaux, et moyens concrets de recours. Certaines entreprises commencent à publier des « model cards » ou des rapports d'impact éthique. Mais il reste un long chemin pour que ces pratiques deviennent la norme et non l'exception.

    Pour finir — sans conclure — je veux insister sur deux choses : d'une part, la loi donne des outils, mais il faut du temps, des compétences et de la volonté pour les utiliser ; d'autre part, prouver la discrimination algorithmique exige de croiser méthodes empiriques, analyses techniques et démarches juridiques. Ce travail est collectif : les candidat·e·s, les associations, les chercheurs et les régulateurs doivent coopérer pour que la technologie ne remplace pas le sens commun et l'exigence d'égalité.