201710.05
Fora
0

Inteligências artificiais podem levar a contratações homogêneas.

Você gostaria de ser contratado por uma inteligência artificial (IA)? Com os recrutadores abraçando essas tecnologias para peneirar candidatos, fiz um teste que é aplicado a analistas bancários novatos. Eu queria descobrir se a IA seria melhor para selecionar mulheres do que um entrevistador acostumado a contratar jovens homens recém-formados por Oxford e Harvard – ou se ela iria reproduzir o preconceito contra as mulheres e as minorias.

O Koru, que tem entre seus clientes o Deutsche Bank e o Citigroup, faz pesquisa com trabalhadores para descobrir seus pontos fortes e fracos. O software faz perguntas para as quais não há respostas óbvias. Um exemplo é: “O que soa mais como você?” e sugere respostas como: “Conseguirei cumprir a maioria das metas que estabeleci para mim mesmo” ou “Em tempos de incertezas, geralmente espero pelo melhor”.

A empresa de recrutamento por inteligência artificial então pede aos candidatos que façam testes similares para ver se eles se encaixam na organização. O Koru diz que essas qualificações podem variar bastante entre as organizações, com a maioria dos profissionais de bancos de investimentos de uma mesma instituição apresentando mais habilidades em comum do que compartilham com os de outros bancos.

Josh Jarrett, cofundador e diretor de produtos do Koru, acredita que a IA pode ajudar os empregadores a encontrarem candidatos que possuem habilidades que passam despercebidas no atual processo de contratação.

“O que eu gostei de ver é que as mulheres se saíram melhor em várias das subcompetências, como inteligência emocional e trabalho em equipe, coisas notoriamente difíceis de medir”, diz Jarrett. Os patrões mais provavelmente entrevistarão aqueles com a maior “pontuação de adequação”, de modo que as mulheres ganham pontos por habilidades que não aparecem tão facilmente em um currículo.

Uma nova geração de tecnologias de recrutamento com IA vem sendo criada por empresas que vão de startups ao Google. Esta última diz que criou seu modelo de máquina que aprende (“machine learning”) usando 17 milhões de anúncios de emprego. Muitas vendem seus softwares como um meio de contornar as predisposições humanas, mas elas também estão cientes de que precisam ficar de olho em seus algoritmos casos eles se mostrem tendenciosos.

A IA é como uma criança que imita o comportamento dos pais, em vez de fazer o que eles dizem. Ela absorve informações, encontra padrões e os copia. Embora as empresas digam que querem diversidade, um programa de recrutamento poderá, ao contrário desse desejo, seguir o padrão dos sistemas humanos dos empregadores.

Por exemplo, se uma ferramenta de IA examina dados sobre a força de trabalho de uma companhia – sua experiência, habilidades e desempenho -, ela poderá aumentar o número de homens brancos contratados se essa for a tendência, em vez de considerar candidatos mais diversificados. Se as pessoas que estiverem por trás da IA tiverem as mesmas predisposições, isso também poderá perpetuá-las.

“Sabemos que a inteligência artificial não é neutra”, diz Yvonne Hutchinson, fundadora de uma startup chamada ReadySet, dedicada ao aumento da diversidade nas empresas de tecnologia. “A IA é criada por pessoas e essas pessoas têm suas próprias propensões e às vezes essas predisposições são embutidas nas ferramentas e plataformas que elas usam.”

A IA já tem sua primeira história que serve de alerta, afirma Yvonne. Alguns tribunais dos Estados Unidos começaram a usar programas preditivos para decidir quando dar liberdade condicional a condenados, calculando com mais consistência os riscos de eles reincidirem. Uma investigação da ProPublica, uma organização jornalística sem fins lucrativos, constatou que eles se mostraram preconceituosos com os afro-americanos, atribuindo a eles duas vezes mais chances de reincidência do que aos réus brancos.

“O que deveria ser uma ferramenta para diminuir o preconceito acabou se mostrando uma ferramenta de agravamento do preconceito. Corremos o risco de ver isso acontecer também nas contratações”, diz Yvonne.

Uma startup de Toronto chamada Ideal usa IA para encontrar milhares de candidatos para cargos de nível inicial. Nela, a psicóloga Ji-A Min é a principal cientista de dados que monitora as decisões tomadas pelo software. O objetivo é tentar assegurar que os clientes poderão se enquadrar nas regras de diversidade, como as da Comissão de Oportunidades Iguais de Emprego dos Estados Unidos.

“Dizer aos humanos para ignorarem seus preconceitos inconscientes é praticamente impossível”, diz ela. “Como a IA está sendo treinada com dados históricos de tomadas de decisões humanas, ela pode começar a imitar o viés humano se você não estiver monitorando o sistema. Portanto, quando há algum tipo de predisposição, nós interferimos e corrigimos os princípios que usamos.”

Como afro-americana de origem humilde, Stephanie Lampkin, executiva-chefe da Blendoor, diz entender o potencial efeito negativo do uso de dados históricos. Ela diz que pode haver problemas de “responsabilização” e nenhuma “garantia real de qualidade”.

Sua startup está usando dados e IA para verificar as propensões dos recrutadores humanos. Gerentes de contratação são informados quando eles tendem a favorecer certos tipos de candidatos, e podem ser responsabilizados por suas escolhas. “Podemos mergulhar mais fundo e mostrar que você prefere homens brancos de 25 a 30 anos que se formaram por Stanford e possuem mestrado”, afirma ela. A Blendoor pode recomendar medidas para corrigir essa propensão, como participar de uma feira de carreiras em uma faculdade de mulheres, ou patrocinar um evento em uma conferência voltada para a diversidade.

Ao completar o teste do Koru, não fiquei convencida de que ele descobriu habilidades ocultas para ajudar um empregador a tomar uma decisão isenta, atribuindo a mim qualidades que ele valoriza e vão além dos rostos masculinos e brancos que ele vê no corredor.

Fiz mais pontos em “refinamento”, também conhecido por habilidades de comunicação, “curiosidade” e “determinação”. Me saí mal em rigor – às vezes tomo decisões baseadas na intuição – e controle (aparentemente eu posso me concentrar mais em meu próprio sucesso no que no da equipe). Felizmente, minha atual equipe não concorda com isso, de modo que tão cedo não me submeterei novamente a um recrutador de IA. (Tradução de Mario Zamarian)

Fonte: Valor Econômico / Financial Times, por Hannah Kuchler, 05.10.2017

Os artigos reproduzidos neste clipping de notícias são, tanto no conteúdo quanto na forma, de inteira responsabilidade de seus autores. Não traduzem, por isso mesmo, a opinião legal de Granadeiro Guimarães Advogados.