Les techniques d’embauche empêchent-elles les préjugés ou les améliorent-ils? Cette question fondamentale est apparue comme un point de tension entre les partisans de la technologie et ses sceptiques, mais l’atteinte de la réponse est plus complexe qu’elle n’apparaît. L’emploi n’est guère un choix, mais plutôt l’aboutissement d’une série de décisions séquentielles plus compactes. Les algorithmes jouent différents rôles tout au long de ce processus: certains orientent les offres d’emploi vers des candidats spécifiques, tandis que d’autres signalent des candidats inactifs. Les outils prédictifs d’analyse et de pointage de crédit reprennent, et la sélection des superviseurs permet d’évaluer les compétences des candidats de nouvelles façons, en utilisant chaque norme et chaque nouvelle donnée. Nombreux sont ceux qui croient que les techniques peuvent aider les producteurs de choix humain à éviter leurs propres préjugés, en ajoutant une cohérence dans l’utilisation des services de procédure. Mais les algorithmes introduisent de nouveaux dangers qui leur appartiennent. Ils peuvent reproduire des biais institutionnels et historiques, amplifiant les désavantages cachés dans des informations telles que la fréquentation d’une université ou d’un collège ou les scores d’évaluation de la performance.
Que les algorithmes éliminent une part de subjectivité de l’utilisation des services de processus, les êtres humains continuent d’être grandement associés aux décisions d’embauche finales. Les arguments qui définissent des ensembles de règles «objectifs» comme étant plus justes et plus précis que des êtres humains faillibles négligent de noter pleinement que, dans de nombreux cas, jouent également un rôle. Pour comprendre les biais liés à l’utilisation des services d’un ensemble de règles et de moyens de les atténuer, nous devons apprendre comment les technologies prédictives fonctionnent à chaque étape de la procédure de sélection. Même s’ils partagent souvent les bases de la compréhension de l’unité, les ressources utilisées auparavant peuvent être fondamentalement meilleures que celles utilisées plus tard. Même les outils qui semblent effectuer exactement le même processus peuvent s’appuyer sur des informations de types totalement différents, ou sur des estimations existantes selon des méthodes radicalement différentes. Notre examen des ressources prédictives tout au long de l’approche de sélection aide vraiment à clarifier ce que font exactement les «algorithmes de recrutement», et comment et où un biais peut entrer dans la méthode. Malheureusement, séminaire nous avons constaté que la plupart des algorithmes de sélection dériveraient automatiquement vers les préjugés. Bien que leur contribution potentielle à la réduction des préjugés sociaux ne doive pas être réduite, seules les ressources qui s’attaquent de manière proactive à des disparités plus profondes vous permettront d’espérer que la technologie moderne prédictive contribuera à encourager la valeur nette de la maison, au lieu de l’éroder. L’utilisation des services de processus commence bien avant qu’un demandeur d’emploi ne soumette un logiciel.
Au cours de la période de «recrutement» ou de recrutement, les technologies prédictives aident à commercialiser les emplois disponibles, alertent les demandeurs d’emploi sur les rôles potentiellement souhaitables et ouvrent des perspectives potentielles aux recruteurs pour une portée positive. Pour attirer les candidats, séminaire de nombreuses organisations utilisent des systèmes de publicité algorithmiques et des tableaux de bord pour parvenir de loin aux demandeurs d’emploi les plus «pertinents». Ces solutions, qui garantissent aux entreprises une utilisation plus efficace des ressources financières en matière d’embauche, produisent souvent des prévisions très superficielles: elles ne prédisent pas qui obtiendra le succès dans la fonction, mais qui cliquera probablement tout simplement sur cette tâche. Ces prophéties peuvent conduire les annonces de travail à être diffusées d’une manière qui prenne en charge les stéréotypes sexistes et raciaux, même si les entreprises n’ont pas ce genre d’objectif. Dans une étude récente que nous avons menée avec des collègues de Northeastern School et de USC, nous avons découvert, entre autres choses, que les publicités généralement ciblées sur Facebook ou Twitter pour des placements dans des caisses d’épicerie étaient effectivement montrées à un public de 85% de filles, lorsque des tâches de taxi les entreprises ont visité un public composé à 75% de couleur noire. C’est un cas typique de tout algorithme reproduisant un biais du monde réel, sans implication humaine. Dans le même temps, des forums de travail personnalisés, tels que ZipRecruiter, tentent de comprendre immédiatement les choix des recruteurs et utilisent toutes ces prophéties pour obtenir des personnes très similaires.
A l’instar de Facebook ou de Twitter, ces méthodes de suggestion sont spécialement conçues pour localiser et reproduire les schémas de comportement des consommateurs, en modernisant les estimations de manière dynamique à mesure que les entreprises et les demandeurs d’emploi se rencontrent. Lorsque le processus constate que les employeurs se connectent plus fréquemment avec des hommes blancs et brillants, il peut très bien localiser des mandataires pour les caractéristiques des personnes (par exemple, devenir Jared ou participer à une crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut avoir lieu sans formation explicite, et pire, sans reconnaissance individuelle. Traquer des algorithmes ne sera probablement pas une surface d’imagination pour la plupart d’entre nous chaque fois qu’ils pensent «algorithme d’embauche». Cependant, les décisions informatisées prises au début de la phase à partir de l’entonnoir employé sont très répandues. À titre d’exemple, l’instrument mis au rebut par Amazon sur le marché en ligne pour les filles défavorisées n’était pas un outil de variété pour évaluer des personnes réelles, mais un outil permettant de révéler les personnes inactives que les employeurs pouvaient obtenir. Le repérage d’algorithmes ne permet pas nécessairement de décliner ouvertement les personnes, mais comme le dit Pauline Kim, juriste, «ne pas dire aux individus leur chance d’emploi est un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils peuvent ne pas toujours être efficaces pour les lignes de commande dystopiques, mais ils jouent néanmoins un rôle essentiel pour déterminer qui a accès aux services de procédure par quelque moyen que ce soit.