Les techniques d’embauche empêchent-elles les préjugés ou les améliorent-ils? Cette question fondamentale est apparue comme un point de tension entre les partisans de la technologie et ses sceptiques, mais l’atteinte de la réponse est plus complexe qu’elle n’apparaît. L’emploi n’est guère un choix, séminaire mais plutôt l’aboutissement d’une série de décisions séquentielles plus compactes. Les algorithmes jouent différents rôles tout au long de ce processus: certains orientent les offres d’emploi vers des candidats spécifiques, tandis que d’autres signalent des candidats inactifs. Les outils prédictifs d’analyse et de pointage de crédit reprennent, et la sélection des superviseurs permet d’évaluer les compétences des candidats de nouvelles façons, en utilisant chaque norme et chaque nouvelle donnée. Nombreux sont ceux qui croient que les techniques peuvent aider les producteurs de choix humain à éviter leurs propres préjugés, en ajoutant une cohérence dans l’utilisation des services de procédure. Mais les algorithmes introduisent de nouveaux dangers qui leur appartiennent. Ils peuvent reproduire des biais institutionnels et historiques, amplifiant les désavantages cachés dans des informations telles que la fréquentation d’une université ou d’un collège ou les scores d’évaluation de la performance.
Même si la procédure de recrutement élimine une certaine subjectivité par le biais de procédures de recrutement, les êtres humains restent très impliqués dans les jugements ultimes en matière de recrutement. Les désaccords qui rendent les ensembles de règles «objectifs» plus équitables et beaucoup plus précis que des êtres humains faillibles oublient de reconnaître complètement que généralement, chacun est impliqué. Connaître les biais dans l’utilisation des algorithmes et les moyens de les atténuer nous oblige à découvrir le fonctionnement de l’innovation technologique prédictive à chaque étape de la procédure de recrutement. Bien qu’ils discutent généralement de la découverte d’équipement, les instruments utilisés précédemment dans le processus peuvent être fondamentalement différents de ceux appliqués ultérieurement. Même les équipements qui semblent effectuer exactement la même tâche peuvent dépendre de types de détails complètement différents, ou présenter des prédictions de manière sensiblement différente. Notre évaluation des instruments de prévision tout au long de la procédure d’emploi vous aide à clarifier ce que font exactement les «algorithmes de recrutement» et comment et où les préjugés peuvent entrer dans la méthode. Malheureusement, nous avons constaté que la plupart des algorithmes de recrutement dériveraient par défaut vers un biais. Bien que leur potentiel pour aider à réduire les préjugés interpersonnels ne devrait pas être réduit, seuls des outils permettant de gérer de manière proactive des disparités plus profondes donneront l’impression que l’innovation technologique prédictive pourrait aider à promouvoir la valeur nette de la maison, au lieu de l’éroder. La méthode de sélection commence bien avant qu’un demandeur d’emploi soumette une candidature.
Par le biais du «point d’achat» ou du point d’inscription, l’innovation technologique prédictive aide à commercialiser les opportunités de tâches, informe les demandeurs d’emploi de placements probablement intéressants et offre aux recruteurs une surface de travail propice à une sensibilisation proactive. Pour attirer des candidats, de nombreuses entreprises utilisent des plateformes de publicité algorithmiques et des tableaux de sélection de carrière pour trouver l’une des personnes les plus «pertinentes» à la recherche d’un emploi. Ces méthodes, qui garantissent une utilisation plus efficace des fonds de l’emploi par les employeurs, génèrent généralement des estimations remarquablement superficielles: elles ne prévoient pas ce qui conduira à la réussite de la fonction, mais qui va probablement sélectionner cette tâche dans la publicité. Ces prévisions peuvent conduire à la diffusion d’annonces de travail d’une manière qui prenne en charge les stéréotypes sexistes et raciaux, même si les entreprises n’ont aucune intention de ce type. Dans une étude récente que nous avons effectuée avec des collègues de la Northeastern University et de l’USC, nous avons notamment constaté que des publicités généralement ciblées sur Fb pour des emplois de caissière dans des magasins d’alimentation étaient présentées à un public composé de 85% de femmes, tandis que à un public qui était environ 75% sombre. C’est vraiment le cas par excellence d’une formule d’algorithme reproduisant les préjugés de la vie réelle, sans implication individuelle. Entre-temps, des groupes de travail personnalisés, tels que ZipRecruiter, ont pour objectif de déterminer automatiquement les choix des recruteurs et d’utiliser toutes ces prophéties pour solliciter des candidats connexes.
À l’instar de Facebook, ces systèmes de recommandation sont spécialement conçus pour obtenir et reproduire les styles dans le comportement des utilisateurs finaux, en mettant à jour les prophéties de manière dynamique à mesure que les entreprises et les demandeurs d’emploi interagissent. Si la méthode remarque que les recruteurs affligent socialisent plus souvent avec des hommes de couleur blanche, elle pourrait très bien localiser les mandataires pour ces qualités (comme s’appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut se produire sans instruction spécifique et, pire encore, sans reconnaissance individuelle. Les techniques de localisation ne sont pas une surface d’imagination probable pour beaucoup d’individus quand ils se sentent «comme une formule d’algorithme d’embauche». Cependant, les sélections informatisées à ce stade précoce de l’entonnoir employé sont nombreuses. À titre d’exemple, le marché en ligne d’Amazon, abandonné au profit des femmes défavorisées, n’était pas un instrument de variété permettant d’évaluer des personnes réelles, mais un outil permettant de découvrir des candidats passifs à recruter pour les recruteurs. La recherche d’algorithmes n’engage peut-être pas ouvertement les individus, mais comme l’a suggéré une chercheuse autorisée, Pauline Kim, «ne pas informer les employés d’une option de travail peut être un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils électriques ne font peut-être pas généralement les gros titres dystopiques, mais ils jouent un rôle crucial dans la détermination des personnes pouvant accéder à la procédure de recrutement, que ce soit.