Les outils d’embauche intelligents peuvent rejeter des CV en fonction de l’origine et du sexe | 24 heures
/portemonnaie

Les outils d’embauche intelligents peuvent rejeter des CV en fonction de l’origine et du sexe

Image principale de l'article Les outils d’embauche intelligents ont des biais
Illustration: Marilyne Houde

Vous est-il déjà arrivé d’envoyer votre CV via une plateforme de recrutement en ligne et d’être carrément rejeté du processus, même si vous répondiez à tous les critères de sélection? Votre candidature a peut-être été écartée par un robot qui a certains biais sexistes et racistes. 

• À lire aussi: Discrimination: cinq barrières à la diversité dans les milieux de travail

De plus en plus d’entreprises font appel à des outils de recrutement qui utilisent l’intelligence artificielle (IA). Le hic, c’est que certains algorithmes peuvent présenter des biais inconscients basés sur le sexe, l’origine et l’expérience, notamment. 

Même s’il s’agit d’une technologie nouvelle et peu répandue pour le moment, il faut la garder à l’œil, insiste Xavier Parent-Rocheleau, professeur adjoint au département de gestion des ressources humaines de HEC Montréal et expert en intelligence artificielle. 

«Certaines informations plus facilement relevées par les algorithmes conduisent à la production de biais comme le lieu de diplomation et les premières expériences professionnelles, puisqu’elles facilitent la reconnaissance de l’origine ethnique et culturelle d’une personne», explique l’expert. 

HEC Montréal 

Pour y arriver, l’IA utilise deux types de technologies : la classification et la prédiction. Dans la première, l’IA classe les candidatures reçues et leur attribue un score de correspondance entre le profil recherché par la compagnie et le CV du candidat, d’après des critères programmés par l’algorithme. Dans la seconde, elle prédit la performance éventuelle d’un candidat dans un poste si on l’embauche, tout comme le rendement et la longévité dans l’entreprise. 

«C’est là où il peut y avoir beaucoup de biais», prévient Xavier Parent-Rocheleau. «Si une femme de 38 ans envoie sa candidature, l’IA va faire des associations avec d’autres candidates au profil similaire et pourrait déterminer qu’une telle candidate ne restera pas longtemps dans l’entreprise puisque d’autres femmes d’environ 38 ans au parcours semblable ont quitté au bout de quelques mois.» 

• À lire aussi: Témoignages: dans les yeux de ceux qui vivent la discrimination

Le cas Amazon 

L’exemple du géant Amazon est aujourd’hui un cas d’école. En 2018, il a été révélé que l’outil d’embauche intelligent de la multinationale discriminait les candidatures de femmes au profit de celles des hommes. L’algorithme avait été entraîné à partir de CV d’anciens candidats, pour la majorité des hommes. 

Ce type de biais est encore trop fréquent, selon Xavier Parent-Rocheleau. L’expert croit néanmoins qu’il est inutile de démoniser l’IA en elle-même puisque «beaucoup de discrimination est de nature humaine».  

«Il faut toujours garder en tête que ces outils sont une aide à la décision et que la décision finale doit toujours revenir à un professionnel avec son sens critique et son discernement.» 

AFP 

Des solutions existent 

Pour tenter de limiter toute discrimination liée aux outils d’embauche, il faudra d’abord miser sur la transparence autour de la technologie, insiste l’expert en intelligence artificielle. 

«Il faut être en mesure de comprendre pourquoi le système rejette une candidature au profit d’une autre et ça, c’est possible lorsque la technologie atteint un certain niveau. Dans notre jargon, c’est ce qu’on appelle l’explicabilité.» 

Il faudra aussi que les entreprises aient un «dialogue ouvert» avec les firmes de développement d’intelligence artificielle qui n’ont pas toutes la même «conscience» ou «éthique» autour de la discrimination pour éviter de fermer les yeux sur l’enjeu. 

À VOIR AUSSI

s

À lire aussi

Vous pourriez aimer

En collaboration avec nos partenaires