• Tecnologia
  • Equipamento elétrico
  • Indústria de Materiais
  • Vida digital
  • política de Privacidade
  • Ó nome
Localização: Casa / Tecnologia / Usando a análise de pessoas para construir um local de trabalho equitativo

Usando a análise de pessoas para construir um local de trabalho equitativo

techserving |
2156
Leer en españolLer em português

People Analytics, A aplicação de métodos científicos e estatísticos aos dados comportamentais, traça suas origens ao clássico de Frederick Winslow Taylor, The Principles of Scientific Management, em 1911, que procurou aplicar métodos de engenharia ao gerenciamento de pessoas.Mas não foi até um século depois - após avanços no poder do computador, métodos estatísticos e especialmente inteligência artificial (AI) - que o campo realmente explodiu em poder, profundidade e aplicação generalizada, especialmente, mas não apenas, em recursos humanos(Gestão de RH.Ao automatizar a coleta e análise de grandes conjuntos de dados, a IA e outras ferramentas de análise oferecem a promessa de melhorar todas as fases do pipeline de RH, desde o recrutamento e compensação até a promoção, treinamento e avaliação.

Agora, os algoritmos estão sendo usados para ajudar os gerentes a medir a produtividade e tomar decisões importantes na contratação, compensação, promoção e oportunidades de treinamento-todas as quais podem mudar a vida para os funcionários.As empresas estão usando esta tecnologia para identificar e fechar lacunas salariais em gênero, raça ou outras categorias demográficas importantes.Os profissionais de RH usam rotineiramente ferramentas baseadas em IA para currículos de tela para economizar tempo, melhorar a precisão e descobrir padrões ocultos em qualificações associadas a um desempenho futuro (ou pior) melhor (ou pior).Os modelos baseados em IA podem até ser usados para sugerir quais funcionários podem sair em um futuro próximo.

E, no entanto, para todas as promessas das ferramentas de análise de pessoas, elas também podem levar os gerentes seriamente.

A Amazon teve que jogar fora uma ferramenta de triagem de currículo construída por seus engenheiros porque foi tendenciosa contra mulheres.Ou considere o LinkedIn, usado em todo o mundo pelos profissionais para se conectar e pesquisar empregos e por profissionais de RH para recrutar.O recurso de preenchimento automático da plataforma para sua barra de pesquisa foi considerado sugerindo que nomes femininos como "Stephanie" sejam substituídos por nomes masculinos como "Stephen.Finalmente, no lado do recrutamento, um anúncio de mídia social para oportunidades de campo de ciência, tecnologia, engenharia e matemática (STEM) que foram cuidadosamente projetadas para serem neutras em gênero foi demonstrado desproporcionalmente aos homens por um algoritmo projetado para maximizar o valor para o anúncio dos recrutadoresorçamentos, porque as mulheres geralmente respondem aos anúncios e, portanto, os anúncios mostrados são mais caros.

Em cada um desses exemplos, surgiu um colapso no processo analítico e produziu um viés não intencional - e às vezes severo - contra um determinado grupo.No entanto, essas avarias podem e devem ser evitadas.Para realizar o potencial da análise de pessoas baseadas em IA, as empresas devem entender as causas raiz do viés algorítmico e como elas se desenrolam em ferramentas de análise de pessoas comuns.

O processo analítico

Os dados não são neutros.As ferramentas de análise de pessoas geralmente são construídas com os dados históricos de um empregador sobre o recrutamento, retenção, promoção e compensação de seus funcionários.Esses dados sempre refletirão as decisões e atitudes do passado.Portanto, à medida que tentamos construir o local de trabalho de amanhã, precisamos estar atentos à maneira como nossos dados retrospectivos podem refletir vieses antigos e existentes e podem não capturar completamente as complexidades do gerenciamento de pessoas em uma força de trabalho cada vez mais diversa.

Os dados podem ter viés explícito assados diretamente nele - por exemplo, avaliações de desempenho em sua empresa podem ter sido historicamente tendenciosas contra um grupo específico.Ao longo dos anos, você corrigiu esse problema, mas se as avaliações tendenciosas forem usadas para treinar uma ferramenta de IA, o algoritmo herdará e propagará os vieses para a frente.

Using People Analytics to Build an Equitable Workplace

Também existem fontes de preconceito sutiscedores.Por exemplo, o GPA de graduação pode ser usado como proxy para inteligência, ou licenças ou certificados ocupacionais podem ser uma medida de habilidades.No entanto, essas medidas são incompletas e geralmente contêm vieses e distorções.Por exemplo, os candidatos a emprego que tiveram que trabalhar durante a faculdade-com maior probabilidade de vir de origens de baixa renda-podem ter obtido notas mais baixas, mas podem de fato fazer os melhores candidatos ao trabalho porque demonstraram o impulso para superar obstáculos.Entender possíveis incompatibilidades entre o que você deseja medir (e.g., inteligência ou capacidade de aprender) e o que você realmente mede (e.g., desempenho em testes escolares) é importante na construção de qualquer ferramenta de análise de pessoas, especialmente quando o objetivo é construir um local de trabalho mais diversificado.

Como uma ferramenta de análise de pessoas executa é um produto dos dados que é alimentado e do algoritmo que ele usa.Aqui, oferecemos três sugestões que você deve ter em mente ao gerenciar seu povo.

Primeiro, um modelo que maximiza a qualidade geral da previsão - a abordagem mais comum - provavelmente terá melhor desempenho em relação aos indivíduos em grupos demográficos majoritários, mas pior com grupos menos bem representados.Isso ocorre porque os algoritmos geralmente maximizam a precisão geral e, portanto, o desempenho para a maioria da população tem mais peso do que o desempenho da população minoritária na determinação dos parâmetros do algoritmo.Um exemplo pode ser um algoritmo usado em uma força de trabalho composta principalmente pessoas casadas ou solteiras e sem filhos;O algoritmo pode determinar que um aumento repentino no uso de dias pessoais indica uma alta probabilidade de desistir, mas essa conclusão pode não se aplicar a pais solteiros que precisam decolar de tempos em tempos porque seu filho está doente.

Segundo, não existe um modelo verdadeiramente "de corrida" ou "de gênero-de-gênero".De fato, omitir raça ou gênero explicitamente de um modelo pode até piorar as coisas.

Considere este exemplo: imagine que sua ferramenta de análise de pessoas baseada em IA, para a qual você evitou cuidadosamente fornecer informações sobre gênero, desenvolve um forte histórico de previsão de quais funcionários provavelmente desistirão logo após serem contratados.Você não tem certeza exatamente do que o algoritmo se agarrou - a IA freqüentemente funciona como uma caixa preta para os usuários - mas evita contratar pessoas que o algoritmo tags como alto risco e veja uma boa queda no número de novas contratações que saem logo depoisjuntando -se.Depois de alguns anos, no entanto, você é atingido por uma ação por discriminar as mulheres em seu processo de contratação.Acontece que o algoritmo foi desproporcionalmente exibindo mulheres de um código postal específico que não possui uma instalação de creche, criando um fardo para mães solteiras.Você só sabia, pode ter resolvido o problema oferecendo creche perto do trabalho, não apenas evitando o processo, mas mesmo dando a si mesmo uma vantagem competitiva ao recrutar mulheres dessa área.

Terceiro, se as categorias demográficas como gênero e raça forem desproporcionalmente distribuídas em sua organização, como é típico - por exemplo, se a maioria dos gerentes no passado tiver sido masculina, enquanto a maioria dos trabalhadores do sexo feminino - mesmo os modelos cuidadosamente construídos não levarão a resultados iguais entre grupos.Isso ocorre porque, neste exemplo, um modelo que identifica futuros gerentes é mais provável de classificar mal as mulheres como inadequadas para a administração, mas classificam mal os homens como adequados para a administração, mesmo que o gênero não faça parte dos critérios do modelo.A razão, em uma palavra, é que os critérios de seleção do modelo provavelmente estarão correlacionados com a aptidão de gênero e gerencial, de modo que o modelo tende a estar "errado" de maneiras diferentes para mulheres e homens.

Como acertar

Pelas razões acima (e outras), precisamos estar especialmente cientes das limitações dos modelos baseados em IA e monitorar sua aplicação em grupos demográficos.Isso é especialmente importante para o RH, porque, em forte contraste com os aplicativos gerais de IA, que os dados que as organizações usam para treinar ferramentas de IA provavelmente refletirão desequilíbrios que o RH está trabalhando atualmente para corrigir.Como tal, as empresas devem prestar muita atenção a quem é representado nos dados ao criar e monitorar aplicativos de IA.Mais claramente, eles devem ver como a composição dos dados de treinamento pode estar distorcendo a recomendação da IA em uma direção ou outra.

Uma ferramenta que pode ser útil nesse aspecto é um painel de viés que analisa separadamente como uma ferramenta de análise de pessoas executa em diferentes grupos (e.g.raça), permitindo a detecção precoce de possível viés.Este painel destaca, em diferentes grupos, tanto o desempenho estatístico quanto o impacto.Como exemplo, para um aplicativo que apoia a contratação, o painel pode resumir a precisão e o tipo de erro que o modelo comete, bem como a fração de cada grupo que recebeu uma entrevista e acabou sendo contratada.

Além de monitorar as métricas de desempenho, os gerentes podem testar explicitamente o viés.Uma maneira de fazer isso é excluir uma variável demográfica específica (e.g., gênero) ao treinar a ferramenta baseada em IA, mas depois inclui explicitamente essa variável em uma análise subsequente dos resultados.Se o gênero estiver altamente correlacionado com os resultados - por exemplo, se um gênero é desproporcionalmente recomendado para um aumento - isso é um sinal de que a ferramenta de IA pode estar implicitamente incorporando gênero de uma maneira indesejável.Pode ser que a ferramenta identifique desproporcionalmente as mulheres como candidatos a aumentos, porque as mulheres tendem a ser mal pagas em sua organização.Nesse caso, a ferramenta da AI está ajudando você a resolver um problema importante.Mas também pode ser que a ferramenta de IA esteja reforçando um viés existente.Mais investigação será necessária para determinar a causa subjacente.

É importante lembrar que nenhum modelo está completo.Por exemplo, a personalidade de um funcionário provavelmente afeta seu sucesso em sua empresa sem necessariamente aparecer em seus dados de RH sobre esse funcionário.Os profissionais de RH precisam estar alertas para essas possibilidades e documentá -las na medida do possível.Embora os algoritmos possam ajudar a interpretar dados passados e identificar padrões, a análise das pessoas ainda é um campo centrado no ser humano e, em muitos casos, especialmente os difíceis, as decisões finais ainda serão tomadas pelos seres humanos, como refletido na frase popular atual“Human-in-the-loop-analytics.”

Para ser eficaz, esses humanos precisam estar cientes do viés de aprendizado de máquina e das limitações do modelo, monitorar a implantação dos modelos em tempo real e estar preparado para tomar as ações corretivas necessárias.Um processo de consciência de viés incorpora julgamento humano em cada etapa analítica, incluindo a conscientização de como as ferramentas de IA podem ampliar vieses através de loops de feedback.Um exemplo concreto é quando as decisões de contratação são baseadas em "ajuste cultural", e cada ciclo de contratação traz mais funcionários semelhantes à organização, o que, por sua vez, torna o ajuste cultural ainda mais estreito, potencialmente trabalhando contra objetivos de diversidade.Nesse caso, ampliando os critérios de contratação pode ser solicitado, além de refinar a ferramenta de IA.

A análise das pessoas, especialmente baseada na IA, é uma ferramenta incrivelmente poderosa que se tornou indispensável no RH moderno.Mas modelos quantitativos destinam -se a ajudar, não substituir, julgamento humano.Para tirar o máximo proveito da IA e de outras ferramentas de análise de pessoas, você precisará monitorar consistentemente como o aplicativo está funcionando em tempo real, que critérios explícitos e implícitos estão sendo usados para tomar decisões e treinar a ferramenta e se os resultados estão afetando diferentesgrupos de maneira diferente de maneiras não intencionais.Ao fazer as perguntas certas dos dados, do modelo, das decisões e dos fornecedores de software, os gerentes podem aproveitar com sucesso o poder das análises de pessoas para construir os locais de trabalho equitativos e de alto desempenho de amanhã de amanhã.