

A inteligência artificial pode apresentar viés de gênero. No entanto, é importante ressaltar que o problema ainda reside em nós, seres humanos.
Recentemente, a Amazon descontinuou um algoritmo de contratação de funcionários que enfrentava problemas, conforme relatado pela Reuters. O algoritmo de seleção de candidatos não estava produzindo resultados relevantes, levando a Amazon a encerrar o programa. Em 2015, a Amazon enfrentou um problema mais sério com esse sistema de inteligência artificial, pois tendia a excluir mulheres de cargos mais altos.
O algoritmo foi utilizado apenas em experimentos, e os engenheiros resolveram manualmente os problemas relacionados às estradas. No entanto, a maneira como o algoritmo se comportou e a presença do produto apontam para questões reais sobre a desigualdade de gênero em funções tecnológicas e não tecnológicas, e a subvalorização do trabalho feminino.
A Amazon desenvolveu um sistema de inteligência artificial para selecionar automaticamente os candidatos mais qualificados de um grupo de currículos. A empresa percebeu que o algoritmo tendia a classificar negativamente os currículos que mencionavam a palavra “mulheres” ou incluíam faculdades femininas. Além disso, o sistema favorecia currículos com uma linguagem mais masculina, como verbos fortes do tipo “executados” ou “capturados”, de acordo com a Reuters.
Os padrões surgiram devido ao treinamento do algoritmo pelos engenheiros com os currículos de candidatos anteriores submetidos ao longo de uma década. A maioria dos candidatos considerados mais atraentes eram homens, revelando uma disparidade de gênero em cargos técnicos. O algoritmo, ao otimizar para esses padrões, refletiu uma preferência social arraigada que favorece os homens devido a um sistema educacional e cultural que tende a incentivar os homens e desencorajar as mulheres em áreas STEM.
A Amazon destacou em uma mensagem para Mashable que encerrou o programa devido à falta de eficácia na seleção de candidatos, abordando inicialmente a questão do sexismo, mas concluindo que a inteligência artificial como um todo não estava performando adequadamente.
Entretanto, o desenvolvimento de algoritmos de recrutamento, não apenas na região amazônica, mas em diversas organizações, reflete um outro tipo de discriminação de gênero: a subvalorização de funções e competências na área de Recursos Humanos geralmente desempenhadas por mulheres.
De acordo com um relatório do Departamento de Trabalho dos EUA, divulgado pela empresa de análise de força de trabalho Visier, quase 75% das funções gerenciais de Recursos Humanos são ocupadas por mulheres. Isso representa um avanço significativo para a presença feminina no ambiente de trabalho, porém a disparidade ainda persiste devido a outro tipo de viés de gênero.
Existe a ideia de que os empregos de Recursos Humanos são geralmente associados a mulheres. O jornal Globe and Mail aborda em sua pesquisa a questão do sexismo e da desigualdade de gênero na área de RH.
A ideia de que Recursos Humanos é uma profissão predominantemente feminina persiste. Essa percepção baseia-se na ideia de que o trabalho envolve empatia e suporte aos funcionários, o que tem levado a predominância de mulheres nessa área, sendo associadas ao estereótipo do cuidado. Mesmo nos dias atuais, habilidades consideradas “mais suaves” ainda são vistas como menos atraentes ou intuitivas para os homens, que tendem a buscar papéis mais estratégicos e analíticos, afastados das relações interpessoais com os funcionários.
A Amazon e outras empresas que buscaram implementar inteligência artificial em seus processos de contratação buscavam simplificar o processo, porém automatizar um processo que envolve pessoas demonstra falta de valorização de habilidades humanas como intuição e habilidades interpessoais. Segundo a Reuters, a inteligência artificial da Amazon identificou candidatos promissores utilizando um sistema de classificação de cinco estrelas, similar ao utilizado pelos clientes para avaliar produtos na plataforma; quem precisa de empatia quando se tem cinco estrelas?
No relatório da Reuters, essas empresas recomendam a inclusão da inteligência artificial como uma forma de complementar ou elogiar os métodos mais convencionais, e não como uma substituição total. Entretanto, a prioridade dada à automação de processos por uma equipe predominantemente feminina destaca a outra face da moeda, que é a preferência dos algoritmos por uma “linguagem masculina”, onde verbos como “executados” e “capturados” são inconscientemente favorecidos, enquanto termos como “ouvidos” ou “fornecidos” são evitados por serem considerados ineficazes.
A revolução da inteligência artificial está em pleno andamento, visível em cada smartphone e assistente doméstico inteligente que promete facilitar a vida dos usuários, como a Amazon. No entanto, esse avanço pode resultar em uma sociedade mais excludente. A inteligência artificial pode intensificar as disparidades existentes em nome da eficiência, como observado no polêmico sistema de recrutamento da Amazon. Além disso, como a IA é desenvolvida e liderada por humanos, principalmente homens, é possível que seus preconceitos inconscientes sejam transferidos para as decisões de negócios e até mesmo para os próprios robôs.
À medida que a tecnologia avança e se torna cada vez mais presente em diferentes aspectos da vida e do trabalho, é importante garantir que não percamos a essência humana, muitas vezes associada ao feminino, nesse processo.
Atualização em 10/11/2018, às 14h: Amazon forneceu ao Mashable a seguinte declaração a respeito de seu algoritmo de recrutamento.
“Os recrutadores da Amazon nunca utilizaram isso como método de avaliação para candidatos.”
Desculpe, mas você não forneceu nenhum texto para parafrasear. Poderia me informar o texto que deseja que eu parafraseie?
Assuntos abordados incluem a região amazônica e a Inteligência Artificial.

Rachel Kraus é uma repórter de tecnologia da Mashable que se dedica a cobrir temas de saúde e bem-estar. Natural de Los Angeles, formada pela NYU, ela também escreve análises culturais online.
