Cada vez mais presente no nosso dia a dia, a inteligência artificial tem se mostrado extremamente útil na realização de tarefas que, até pouco tempo atrás, dependiam exclusivamente do ser humano para ser executadas. Em muitas delas, os algoritmos, inclusive, demonstram desempenho superior ao nosso, dominando uma variedade de configurações em velocidade recorde.
Um estudo do MIT, no entanto, descobriu que usar a inteligência artificial em processos seletivos de empresas pode não ser uma boa ideia. A justificativa seria o fato de que, assim como demais modelos projetados, os algoritmos podem excluir minorias tradicionalmente sub-representadas no mercado de trabalho, afetando a tão importante diversidade nas empresas.
Algoritmos “viciados”
De acordo com o estudo, os algoritmos tradicionais de processos seletivos examinam um conjunto de dados de pessoas previamente selecionadas para prever as melhores contratações. Como resultado, esses algoritmos muitas vezes acabam fornecendo uma vantagem para as pessoas de grupos geralmente bem-sucedidos, concedendo menos oportunidades às minorias e às mulheres.
O “comportamento” dos algoritmos também se explica pela falta de diversidade nas empresas que os desenvolvem. Segundo uma pesquisa conduzida pela PretaLab e pela ThoughtWorks em 2017, uma em cada cinco equipes de tecnologia no Brasil não possui sequer uma mulher, e em 32% delas não há colaboradores pretos ou pardos.
Os pesquisadores do MIT analisaram candidaturas nas áreas de consultoria, análise financeira e ciência de dados, setores que oferecem cargos bem remunerados e que são frequentemente criticados pela falta de diversidade. Eles construíram, então, três algoritmos diferentes de triagem de currículos para comparar os resultados.
O primeiro modelo usou uma abordagem típica de aprendizagem supervisionada estática (SL), contando com conjuntos de dados anteriores para fazer previsões. O segundo modelo usou uma abordagem de SL semelhante, mas atualizou os dados de treinamento usados ao longo do período de teste com resultados de contratação de candidatos selecionados para entrevistas (atualização de SL). A terceira abordagem implementou um “limite de confiança superior” (UCB), incorporando bônus de exploração que aumentam o grau de incerteza do algoritmo sobre a qualidade. O algoritmo não foi informado com antecedência para selecionar minorias ou mulheres.
Eles descobriram que o modelo UCB mais do que dobrou a parcela de candidatos selecionados que são negros ou hispânicos (de 10% para 23%). Os algoritmos SL estáticos e atualizados, por sua vez, diminuíram a representação negra e hispânica para aproximadamente 2% e 5%, respectivamente. Em relação ao gênero, todos os algoritmos aumentaram a proporção de candidatas mulheres selecionadas: de 35% com recrutamento humano para 41% com o modelo SL, 50% com o modelo SL atualizado e 39% com o modelo UCB. Ainda de acordo com a pesquisa, os modelos de IA foram capazes de selecionar candidatos mais bem preparados.
Diversidade em xeque
Times diversos estimulam a inovação, a criatividade e o engajamento dos colaboradores, ajudando as empresas a ampliar sua visão de mundo e tornando-as mais competitivas. A falta de diversidade entre os funcionários está entre as preocupações mais comuns dos profissionais de RH no Brasil. Pensando nisso, a Taqe desenvolveu um algoritmo inteligente que compreende a cultura das empresas e de candidatos por meio de games, aulas e testes interativos. “Dados antes utilizados no processo seletivo, como nome da escola ou universidade, passam a ser apenas informativos. O que determina a seleção é o perfil pessoal, competências, motivação e conhecimentos, ampliando a possibilidade de incluir mais pessoas no processo seletivo e eliminando vieses”, explica a cofundadora da Taqe, Denise Asnis.
Em um processo seletivo realizado por um grande banco em parceria com a Taqe, foram contratadas mais de 100 mulheres negras para cargos de entrada. Segundo Denise, os algoritmos em si não restringem o aumento da diversidade nos processos seletivos: ao contrário, eles podem ampliar a possibilidade de tornar o processo mais inclusivo. “O viés cultural está sempre com o humano. Minha esperança é de que os responsáveis por seleção possam aprimorar sua tomada de decisão a cada novo processo seletivo, pensando em como podem comandar a busca de dados ou características pessoais que sejam o mais inclusivas possível”, reforça.
Problemas vão além da diversidade
Além da questão da diversidade, alguns especialistas acreditam que a inteligência artificial pode acentuar as desigualdades econômicas. Eles alegam que, diferentemente do que acontecia antigamente, quando funcionários que começavam suas carreiras em cargos mais baixos tinham a possibilidade de assumir funções executivas com o passar do tempo dentro de uma empresa, os negócios de tecnologia não permitem isso.
O argumento é que, em uma organização baseada em IA, funcionários de cargos mais baixos raramente interagem com outros colegas humanos, sendo gerenciados apenas por algoritmos na maior parte do tempo e, por isso, estando sujeitos a monitoramento e vigilância constantes.
Em um mercado de trabalho cada vez mais polarizado, as previsões mais pessimistas dão conta de que, à medida que a IA e a automação remodelam a força de trabalho, as perspectivas de bons cargos bem remunerados aumentam para as pessoas mais bem preparadas, enquanto a parcela menos favorecida passa a ter cada vez mais portas fechadas diante de si. Esse novo modelo já estaria, inclusive, formando uma “força de trabalho algorítmica”, mal remunerada e mal gerenciada.
+ Notícias
Como fazer boas contratações em tempos de pandemia?
5 dicas para lidar com feedback negativo no trabalho
Empreendedoras do mercado de tecnologia que você precisa conhecer