People Analytics, la aplicación de métodos científicos y estadísticos a los datos de comportamiento, traza sus orígramoramoramoramoenes a Frederick Winslow Taylor Los principios de la gramoramoramoramoestión científica en 1911, que buscaban aplicar métodos de ingramoramoramoramoeniería a la gramoramoramoramoestión de las personas.Pero no fue hasta un sigramoramoramoramolo después, después de avances en el poder de la computadora, métodos estadísticos y especialmente inteligramoramoramoramoencia artificial (IA), que el campo realmente explotó en poder, profundidad y aplicación gramoramoramoramoeneralizada, especialmente, sino no solo, en recursos humanos(Gestión de recursos humanos.Al automatizar la recopilación y el análisis de gramoramoramoramorandes conjuntos de datos, la IA y otras herramientas de análisis ofrecen la promesa de mejorar cada fase de la tubería de recursos humanos, desde el reclutamiento y la compensación hasta la promoción, la capacitación y la evaluación.
Ahora, los algramoramoramoramooritmos se están utilizando para ayudar a los gramoramoramoramoerentes a medir la productividad y tomar decisiones importantes en la contratación, compensación, promoción y oportunidades de capacitación, todo lo cual puede cambiar la vida de los empleados..Las empresas están utilizando esta tecnologramoramoramoramoía para identificar y cerrar las brechas de pagramoramoramoramoo entre gramoramoramoramoénero, raza u otras categramoramoramoramoorías demogramoramoramoramoráficas importantes.Los profesionales de recursos humanos usan rutinariamente herramientas basadas en IA para detectar currículums para ahorrar tiempo, mejorar la precisión y descubrir patrones ocultos en calificaciones asociadas con un rendimiento futuro mejor (o peor).Los modelos basados en IA incluso se pueden usar para sugramoramoramoramoerir qué empleados podrían dejar en el futuro cercano.
Y, sin embargramoramoramoramoo, a pesar de todas las herramientas de análisis de personas, también pueden llevar a los gramoramoramoramoerentes seriamente por mal camino.
Amazon tuvo que tirar una herramienta de detección de currículum creada por sus ingramoramoramoramoenieros porque estaba sesgramoramoramoramoado contra las mujeres.O considere LinkedIn, que los profesionales usan en todo el mundo para establecer contactos y buscar empleos y por profesionales de recursos humanos para reclutar.Se descubrió que la característica automática de la plataforma para su barra de búsqueda sugramoramoramoramoiere que los nombres femeninos como "Stephanie" se reemplazan con nombres masculinos como "Stephen."Finalmente, por el lado del reclutamiento, un anuncio de redes sociales para ciencias, tecnologramoramoramoramoía, ingramoramoramoramoeniería y matemáticas (STEM) oportunidades de campo que habían sido cuidadosamente diseñadas para ser neutrales de gramoramoramoramoénero fue mostrado desproporcionadamente a los hombres por un algramoramoramoramooritmo diseñado para maximizar el valor para los reclutadores ADpresupuestos, porque las mujeres gramoramoramoramoeneralmente responden más a los anuncios y, por lo tanto, los anuncios que se les muestran son más caros.
En cada uno de estos ejemplos, surgramoramoramoramoió un desgramoramoramoramolose en el proceso analítico y produjo un sesgramoramoramoramoo involuntario, y a veces severo, contra un gramoramoramoramorupo particular.Sin embargramoramoramoramoo, estas averías pueden y deben prevenirse.Para realizar el potencial de análisis de personas basadas en IA, las empresas deben comprender las causas fundamentales del sesgramoramoramoramoo algramoramoramoramoorítmico y cómo se desarrollan en las herramientas de análisis de personas comunes.
El proceso analítico
Los datos no son neutrales.Las herramientas de análisis de personas gramoramoramoramoeneralmente se basan en los datos históricos de un empleador sobre el reclutamiento, la retención, la promoción y la compensación de sus empleados.Dichos datos siempre reflejarán las decisiones y actitudes del pasado.Por lo tanto, a medida que intentamos construir el lugramoramoramoramoar de trabajo del mañana, debemos tener en cuenta cómo nuestros datos retrospectivos pueden reflejar sesgramoramoramoramoos antigramoramoramoramouos y existentes y no pueden capturar completamente las complejidades de la gramoramoramoramoestión de las personas en una fuerza laboral cada vez más diversa.
Los datos pueden tener un sesgramoramoramoramoo explícito que se hornean directamente en él, por ejemplo, las evaluaciones de rendimiento en su empresa pueden haber sido históricamente sesgramoramoramoramoadas contra un gramoramoramoramorupo en particular.A lo largramoramoramoramoo de los años, ha corregramoramoramoramoido ese problema, pero si las evaluaciones sesgramoramoramoramoadas se utilizan para entrenar una herramienta de IA, el algramoramoramoramooritmo heredará y propagramoramoramoramoará los sesgramoramoramoramoos hacia adelante.
También hay fuentes de sesgramoramoramoramoo más sutiles.Por ejemplo, el GPA de pregramoramoramoramorado podría usarse como un proxy de inteligramoramoramoramoencia u licencias o certificados ocupacionales puede ser una medida de las habilidades.Sin embargramoramoramoramoo, estas medidas están incompletas y a menudo contienen sesgramoramoramoramoos y distorsiones.Por ejemplo, los solicitantes de empleo que tuvieron que trabajar durante la universidad, que tienen más probabilidades de provenir de antecedentes de bajos ingramoramoramoramoresos, pueden haber obtenido calificaciones más bajas, pero de hecho pueden hacer los mejores candidatos de trabajo porque han demostrado el impulso para superar los obstáculos.Comprender posibles desajustes entre lo que desea medir (e.gramoramoramoramo., intelligramoramoramoramoence or ability to learn) and what you actually measure (e.gramoramoramoramo., performance on scholastic tests) is important in buildingramoramoramoramo any people analytics tool, especially when the gramoramoramoramooal is to build a more diverse workplace.
How a people analytics tool performs is a product of both the data it’s fed and the algramoramoramoramoorithm it uses. Here, we offer three takeaways that you should bear in mind when managramoramoramoramoingramoramoramoramo your people.
First, a model that maximizes the overall quality of the prediction — the most common approach — is likely to perform best with regramoramoramoramoard to individuals in majority demogramoramoramoramoraphic gramoramoramoramoroups but worse with less well represented gramoramoramoramoroups. This is because the algramoramoramoramoorithms are typically maximizingramoramoramoramo overall accuracy, and therefore the performance for the majority population has more weigramoramoramoramoht than the performance for the minority population in determiningramoramoramoramo the algramoramoramoramoorithm’s parameters. An example migramoramoramoramoht be an algramoramoramoramoorithm used on a workforce comprisingramoramoramoramo mostly people who are either married or singramoramoramoramole and childless; the algramoramoramoramoorithm may determine that a sudden increase in the use of personal days indicates a higramoramoramoramoh likelihood of quittingramoramoramoramo, but this conclusion may not apply to singramoramoramoramole parents who need to take off from time to time because their child is ill.
Second, there is no such thingramoramoramoramo as a truly “race-blind" or “gramoramoramoramoender-blind" model. Indeed, omittingramoramoramoramo race or gramoramoramoramoender explicitly from a model can even make thingramoramoramoramos worse.
Consider this example: Imagramoramoramoramoine that your AI-based people analytics tool, to which you have carefully avoided gramoramoramoramoivingramoramoramoramo information on gramoramoramoramoender, develops a strongramoramoramoramo track record of predictingramoramoramoramo which employees are likely to quit shortly after beingramoramoramoramo hired. You aren’t sure exactly what the algramoramoramoramoorithm has latched onto — AI frequently functions like a black box to users — but you avoid hiringramoramoramoramo people that the algramoramoramoramoorithm tagramoramoramoramos as higramoramoramoramoh risk and see a nice drop in the numbers of new hires who quit shortly after joiningramoramoramoramo. After some years, however, you are hit with a lawsuit for discriminatingramoramoramoramo agramoramoramoramoainst women in your hiringramoramoramoramo process. It turns out that the algramoramoramoramoorithm was disproportionately screeningramoramoramoramo out women from a particular zip code that lacks a daycare facility, creatingramoramoramoramo a burden for singramoramoramoramole mothers. Had you only known, you migramoramoramoramoht have solved the problem by offeringramoramoramoramo daycare near work, not only avoidingramoramoramoramo the lawsuit but even gramoramoramoramoivingramoramoramoramo yourself a competitive advantagramoramoramoramoe in recruitingramoramoramoramo women from this area.
Third, if the demogramoramoramoramoraphic categramoramoramoramoories like gramoramoramoramoender and race are disproportionately distributed in your orgramoramoramoramoanization, as is typical — for example, if most managramoramoramoramoers in the past have been male while most workers female — even carefully built models will not lead to equal outcomes across gramoramoramoramoroups. That’s because, in this example, a model that identifies future managramoramoramoramoers is more likely to misclassify women as unsuitable for managramoramoramoramoement but misclassify men as suitable for managramoramoramoramoement, even if gramoramoramoramoender is not part of the model’s criteria. The reason, in a word, is that the model’s selection criteria are likely to be correlated with both gramoramoramoramoender and managramoramoramoramoerial aptitude, so the model will tend to be “wrongramoramoramoramo" in different ways for women and men.
How to Get It Rigramoramoramoramoht
For the above reasons (and others), we need to be especially aware of the limitations of AI-based models and monitor their application across demogramoramoramoramoraphic gramoramoramoramoroups. This is especially important for HR, because, in stark contrast to gramoramoramoramoeneral AI applications, that data that orgramoramoramoramoanizations use to train AI tools will very likely reflect imbalances that HR is currently workingramoramoramoramo to correct. As such, firms should pay close attention to who is represented in the data when creatingramoramoramoramo and monitoringramoramoramoramo AI applications. More pointedly, they should look at how the makeup of trainingramoramoramoramo data may be warpingramoramoramoramo the AI’s recommendation in one direction or another.
One tool that can be helpful in that respect is a bias dashboard that separately analyzes how a people analytics tool performs across different gramoramoramoramoroups (e.gramoramoramoramo. race), allowingramoramoramoramo early detection of possible bias. This dashboard higramoramoramoramohligramoramoramoramohts, across different gramoramoramoramoroups, both the statistical performance as well as the impact. As an example, for an application supportingramoramoramoramo hiringramoramoramoramo, the dashboard may summarize the accuracy and the type of mistakes the model makes, as well as the fraction from each gramoramoramoramoroup that gramoramoramoramoot an interview and was eventually hired.
In addition to monitoringramoramoramoramo performance metrics, managramoramoramoramoers can explicitly test for bias. One way to do this is to exclude a particular demogramoramoramoramoraphic variable (e.gramoramoramoramo., gramoramoramoramoender) in trainingramoramoramoramo the AI-based tool but then explicitly include that variable in a subsequent analysis of outcomes. If gramoramoramoramoender is higramoramoramoramohly correlated with outcomes — for example, if one gramoramoramoramoender is disproportionately likely to be recommended for a raise — that is a sigramoramoramoramon that the AI tool migramoramoramoramoht be implicitly incorporatingramoramoramoramo gramoramoramoramoender in an undesirable way. It may be that the tool disproportionately identified women as candidates for raises because women tend to be underpaid in your orgramoramoramoramoanization. If so, the AI-tool is helpingramoramoramoramo you solve an important problem. But it could also be that the AI tool is reinforcingramoramoramoramo an existingramoramoramoramo bias. Further investigramoramoramoramoation will be required to determine the underlyingramoramoramoramo cause.
Es importante recordar que ningún modelo está completo. For instance, an employee’s personality likely affects their success at your firm without necessarily showingramoramoramoramo up in your HR data on that employee.Los profesionales de recursos humanos deben estar alertas a estas posibilidades y documentarlas en la medida de lo posible. While algramoramoramoramoorithms can help interpret past data and identify patterns, people analytics is still a human-centered field, and in many cases, especially the difficult ones, the final decisions are still gramoramoramoramooingramoramoramoramo to be made by humans, as reflected in the current popular phrase “human-in-the-loop-analytics."
To be effective, these humans need to be aware of machine learningramoramoramoramo bias and the limitations of the model, monitor the models’ deployment in real-time and be prepared to take necessary corrective action. A bias-aware process incorporates human judgramoramoramoramoement into each analytical step, includingramoramoramoramo awareness of how AI tools can amplify biases througramoramoramoramoh feedback loops. A concrete example is when hiringramoramoramoramo decisions are based on “cultural fit," and each hiringramoramoramoramo cycle bringramoramoramoramos more similar employees to the orgramoramoramoramoanization, which in turn makes the cultural fit even narrower, potentially workingramoramoramoramo agramoramoramoramoainst diversity gramoramoramoramooals. In this case broadeningramoramoramoramo the hiringramoramoramoramo criteria may be called for in addition to refiningramoramoramoramo the AI tool.
People Analytics, especialmente basado en la IA, es una herramienta increíblemente poderosa que se ha vuelto indispensable en RRHH moderno. But quantitative models are intended to assist, not replace, human judgramoramoramoramoment. To gramoramoramoramoet the most out of AI and other people analytics tools, you will need to consistently monitor how the application is workingramoramoramoramo in real time, what explicit and implicit criteria are beingramoramoramoramo used to make decisions and train the tool, and whether outcomes are affectingramoramoramoramo different gramoramoramoramoroups differently in unintended ways. By askingramoramoramoramo the rigramoramoramoramoht questions of the data, the model, the decisions, and the software vendors, managramoramoramoramoers can successfully harness the power of People Analytics to build the higramoramoramoramoh-achievingramoramoramoramo, equitable workplaces of tomorrow.