• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / Utiliser l'analyse des personnes pour construire un lieu de travail équitable

Utiliser l'analyse des personnes pour construire un lieu de travail équitable

Plateforme de services à guichet unique |
2012
Leer en españolLer em português

Analytics People, l'application des méthodes scientifiques et statistiques aux données comportementales, retrace ses origines à Frederick Winslow Taylor, les principes de la gestion scientifique en 1911, qui cherchait à appliquer des méthodes d'ingénierie à la gestion des personnes.Mais ce n'est qu'un siècle plus tard - après les progrès de la puissance informatique, des méthodes statistiques, et en particulier de l'intelligence artificielle (IA) - que le domaine a vraiment explosé en puissance, en profondeur et en application généralisée, en particulier, mais pas seulement, dans les ressources humaines(Gestion des ressources humaines.En automatisant la collecte et l'analyse des grands ensembles de données, l'IA et d'autres outils d'analyse offrent la promesse d'améliorer chaque phase du pipeline RH, du recrutement et de la rémunération à la promotion, à la formation et à l'évaluation.

Maintenant, les algorithmes sont utilisés pour aider les gestionnaires à mesurer la productivité et à prendre des décisions importantes dans l'embauche, la rémunération, la promotion et les possibilités de formation - qui peuvent changer la vie pour les employés.Les entreprises utilisent cette technologie pour identifier et combler les lacunes de rémunération à travers le sexe, la race ou d'autres catégories démographiques importantes.Les professionnels des ressources humaines utilisent régulièrement des outils basés sur l'IA pour filtrer les curriculum vitae pour gagner du temps, améliorer la précision et découvrir des modèles cachés dans les qualifications qui sont associées à de meilleures (ou pires) performances futures.Les modèles basés sur l'IA peuvent même être utilisés pour suggérer quels employés pourraient quitter dans un avenir proche.

Et pourtant, malgré toute la promesse des outils d'analyse des gens, ils peuvent également faire en sorte que les gestionnaires soient sérieusement égarés.

Amazon a dû jeter un outil de dépistage de CV construit par ses ingénieurs car il était biaisé contre les femmes.Ou considérez LinkedIn, qui est utilisé dans le monde entier par des professionnels pour réseauter et rechercher des emplois et par des professionnels des ressources humaines pour recruter.La fonctionnalité automatique de la plate-forme pour sa barre de recherche s'est révélée suggérer que les noms féminins tels que «Stephanie» soient remplacés par des noms masculins comme «Stephen."Enfin, du côté du recrutement, une publicité sur les réseaux sociaux pour les opportunités de terrain en matière de science, de technologie, d'ingénierie et de mathématiques (STEM) qui avaient été soigneusement conçues pour être neutres entre les sexes, il a été montré de manière disproportionnée aux hommes par un algorithme conçu pour maximiser la valeur de l'annonce des recruteursLes budgets, parce que les femmes sont généralement plus sensibles aux publicités et que les annonces leur sont donc plus chères.

Dans chacun de ces exemples, une rupture du processus analytique est apparue et a produit un biais involontaire - et parfois sévère - contre un groupe particulier.Pourtant, ces pannes peuvent et doivent être empêchées.Pour réaliser le potentiel de l'analyse des personnes basée sur l'IA, les entreprises doivent comprendre les causes profondes du biais algorithmique et comment elles se déroulent dans les outils d'analyse des personnes ordinaires.

Le processus analytique

Les données ne sont pas neutres.Les outils d'analyse des personnes sont généralement construits sur les données historiques d'un employeur sur le recrutement, la rétention, la promotion et la rémunération de ses employés.Ces données refléteront toujours les décisions et les attitudes du passé.Par conséquent, alors que nous tentons de construire le lieu de travail de demain, nous devons être conscients de la façon dont nos données rétrospectives peuvent refléter les préjugés anciens et existants et ne pas saisir pleinement les complexités de la gestion des personnes sur une main-d'œuvre de plus en plus diversifiée.

Les données peuvent avoir des biais explicites qui y sont directement cuits - par exemple, les évaluations des performances de votre entreprise peuvent avoir été historiquement biaisées contre un groupe particulier.Au fil des ans, vous avez corrigé ce problème, mais si les évaluations biaisées sont utilisées pour former un outil d'IA, l'algorithme héritera et propagera les biais vers l'avant.

Using People Analytics to Build an Equitable Workplace

Il existe également des sources de biais plus subtiles.Par exemple, le GPA de premier cycle peut être utilisé comme indicateur indirect de l'intelligence, ou les licences ou certificats professionnels peuvent être une mesure des compétences.Cependant, ces mesures sont incomplètes et contiennent souvent des biais et des distorsions.Par exemple, les candidats qui ont dû travailler pendant le collège - qui sont plus susceptibles de provenir de milieux à faible revenu - peuvent avoir obtenu des notes inférieures, mais ils peuvent en fait faire les meilleurs candidats car ils ont démontré la volonté de surmonter les obstacles.Comprendre les décalages potentiels entre ce que vous voulez mesurer (e.g., intelligence ou capacité à apprendre) et ce que vous mesurez réellement (e.g., la performance sur les tests scolastiques) est importante pour construire n'importe quel outil d'analyse des personnes, en particulier lorsque l'objectif est de construire un lieu de travail plus diversifié.

Comment fonctionne un outil d'analyse People est le produit des données qu'elle est alimentées et de l'algorithme qu'il utilise.Ici, nous offrons trois plats à retenir que vous devriez garder à l'esprit lorsque vous gérez votre peuple.

Premièrement, un modèle qui maximise la qualité globale de la prédiction - l'approche la plus courante - est susceptible de fonctionner le mieux en ce qui concerne les individus dans des groupes démographiques majoritaires, mais pire avec des groupes moins bien représentés.En effet.Un exemple pourrait être un algorithme utilisé sur une main-d'œuvre comprenant principalement des personnes mariées ou célibataires et sans enfant;L'algorithme peut déterminer qu'une augmentation soudaine de l'utilisation des jours personnels indique une forte probabilité d'arrêter, mais cette conclusion peut ne pas s'appliquer aux parents seuls qui doivent décoller de temps en temps parce que leur enfant est malade.

Deuxièmement, il n'y a pas de modèle vraiment «d'abondance» ou de «lésion de genre».En effet, omettre la race ou le sexe explicitement à partir d'un modèle peut même aggraver les choses.

Considérez cet exemple: imaginez que votre outil d'analyse des personnes basé sur l'IA, auquel vous avez soigneusement évité de donner des informations sur le genre, développe une expérience solide pour prédire quels employés sont susceptibles d'arrêter peu de temps après avoir été embauché.Vous ne savez pas exactement à quoi l'algorithme s'est accroché - AI fonctionne fréquemment comme une boîte noire aux utilisateurs - mais vous évitez d'embaucher des gens que l'algorithme étiquette comme un risque élevé et voyez une belle baisse du nombre de nouvelles recrues qui quittent peu de temps après aprèsjoindre.Après quelques années, cependant, vous êtes frappé par un procès pour discriminer les femmes dans votre processus d'embauche.Il s'avère que l'algorithme a dépris de manière disproportionnée les femmes à partir d'un code postal particulier qui n'a pas de garderie, créant un fardeau pour les mères célibataires.Si vous ne l'aviez fait, vous avez peut-être résolu le problème en offrant une garderie près du travail, non seulement en évitant le procès, mais en vous donnant même un avantage concurrentiel dans le recrutement de femmes dans ce domaine.

Troisièmement, si les catégories démographiques comme le sexe et la race sont distribuées de manière disproportionnée dans votre organisation, comme c'est typique - par exemple, si la plupart des gestionnaires dans le passé étaient des hommes tandis que la plupart des travailleurs féminins - même des modèles soigneusement construits ne conduiront pas à des résultats égaux entre les groupes.En effet, dans cet exemple, un modèle qui identifie les futurs managers est plus susceptible de classer mal les femmes comme inadaptées à la gestion, mais la classifier mal les hommes adaptés à la gestion, même si le sexe ne fait pas partie des critères du modèle.La raison, en un mot, est que les critères de sélection du modèle sont susceptibles d'être corrélés à la fois avec le sexe et l'aptitude managériale, donc le modèle aura tendance à être «faux» de différentes manières pour les femmes et les hommes.

Comment bien faire les choses

Pour les raisons ci-dessus (et autres), nous devons être particulièrement conscients des limites des modèles basés sur l'IA et surveiller leur application entre les groupes démographiques.Ceci est particulièrement important pour les RH, car, en contraste frappant avec les applications d'IA générales, que les données que les organisations utilisent pour former des outils d'IA refléteront très probablement les déséquilibres que les RH travaillent actuellement à corriger.En tant que telles, les entreprises devraient accorder une attention particulière à qui est représenté dans les données lors de la création et de la surveillance des applications d'IA.Plus visiblement, ils devraient voir comment la composition des données de formation peut déposer la recommandation de l'IA dans une direction ou une autre.

Un outil qui peut être utile à cet égard est un tableau de bord biais qui analyse séparément comment un outil d'analyse des personnes fonctionne dans différents groupes (E.g.race), permettant une détection précoce de biais possibles.Ce tableau de bord met en évidence, à travers différents groupes, à la fois les performances statistiques ainsi que l'impact.À titre d'exemple, pour une application soutenant l'embauche, le tableau de bord peut résumer la précision et le type d'erreurs que le modèle commet, ainsi que la fraction de chaque groupe qui a obtenu une interview et a finalement été embauché.

En plus de surveiller les mesures de performance, les gestionnaires peuvent tester explicitement le biais.Une façon de le faire est d'exclure une variable démographique particulière (e.g., genre) dans la formation de l'outil basé sur l'IA, mais incluent explicitement cette variable dans une analyse ultérieure des résultats.Si le sexe est fortement corrélé avec les résultats - par exemple, si un genre est susceptible d'être recommandé pour une augmentation - c'est un signe que l'outil d'IA pourrait incorporer implicitement le sexe d'une manière indésirable.Il se peut que l'outil ait identifié de manière disproportionnée les femmes comme des candidats aux augmentations parce que les femmes ont tendance à être sous-payées dans votre organisation.Si c'est le cas, l'AI-Tool vous aide à résoudre un problème important.Mais il se pourrait également que l'outil d'IA renforce un biais existant.Une enquête plus approfondie sera nécessaire pour déterminer la cause sous-jacente.

Il est important de se rappeler qu'aucun modèle n'est complet.Par exemple, la personnalité d'un employé affecte probablement son succès dans votre entreprise sans nécessairement apparaître dans vos données RH sur cet employé.Les professionnels des RH doivent être attentifs à ces possibilités et les documenter dans la mesure possible.Alors que les algorithmes peuvent aider à interpréter les données passées et à identifier les modèles, les personnes analytiques sont toujours un domaine centré sur l'homme, et dans de nombreux cas, en particulier les décisions difficiles, les décisions finales seront encore prises par les humains, comme le montre la phrase populaire actuelle«Human-in-the-Loop-Analytique."

Pour être efficace, ces humains doivent être conscients du biais d'apprentissage automatique et des limites du modèle, surveillez le déploiement des modèles en temps réel et se préparent à prendre les mesures correctives nécessaires.Un processus de biais intègre le jugement humain à chaque étape analytique, y compris la prise de conscience de la façon dont les outils d'IA peuvent amplifier les biais à travers des boucles de rétroaction. A concrete example is when hiring decisions are based on “cultural fit," and each hiring cycle brings more similar employees to the organization, which in turn makes the cultural fit even narrower, potentially working against diversity goals.Dans ce cas, l'élargissement des critères d'embauche peut être demandé en plus de raffiner l'outil d'IA.

Les analyses des gens, en particulier basées sur l'IA, sont un outil incroyablement puissant qui est devenu indispensable dans les RH modernes.Mais les modèles quantitatifs sont destinés à aider, pas à remplacer, le jugement humain.Pour tirer le meilleur parti des outils d'analyse de l'IA et d'autres personnes, vous devrez constamment surveiller comment l'application fonctionne en temps réel, quels critères explicites et implicites sont utilisés pour prendre des décisions et former l'outil, et si les résultats affectent différentsgroupes différemment de manières involontaires.En posant les bonnes questions des données, du modèle, des décisions et des fournisseurs de logiciels, les gestionnaires peuvent exploiter avec succès la puissance de l'analyse des personnes pour construire les lieux de travail équitables et équitables de demain.