Les outils d’embauche intelligents peuvent développer des biais racistes ou sexistes
Radio-Canada
Avec le développement de l’intelligence artificielle (IA), de plus en plus d’entreprises confient à des robots le soin de trier les candidatures de postes pour gagner du temps et faciliter les décisions d’embauche. Mais étonnamment, les machines développent aussi des biais et des réflexes de discrimination, constatent les experts.
De plus en plus d’employeurs, surtout les grandes entreprises, ont recours aujourd’hui à de puissants outils d’intelligence artificielle pour traiter rapidement le flot de candidatures qu’elles reçoivent.
Payer des êtres humains pour faire le tri de ces demandes d’emploi est une opération coûteuse en temps et en ressources pour les entreprises, surtout en période de pénurie de main-d’œuvre.
C’est ici qu'entrent en scène des firmes qui offrent les services de robots intelligents pour faire un premier tri des candidatures avant qu’un humain n’examine les meilleures correspondances identifiées par le logiciel.
« La première chose que les travailleurs doivent comprendre est la suivante : personne ne regarde votre CV. Vous devez passer par l'IA avant d'être vu [par un humain]. »
Or, ces systèmes de tri qui apprennent au fur et à mesure de leur travail deviennent de plus en plus intelligents.
Certaines entreprises d'IA affirment aujourd’hui que leurs plateformes peuvent non seulement repérer le candidat le plus qualifié dans une masse de CV, mais aussi prédire lequel est le plus susceptible d'exceller dans un rôle donné.
Ce type d’outil est également utilisé à l’interne afin de déterminer qui, parmi le personnel, est le plus apte à être promus à un poste supérieur.
Mais, aussi performants soient-ils, ces outils intelligents, en ne se concentrant que sur la recherche d’un type particulier de candidat, échappent des candidatures potentiellement intéressantes de la part de personnes hautement qualifiées pour les postes à combler.