Pesquisadores da Universidade de Washington conduziram um estudo que foi apresentado na conferência AAAI/ACM sobre Ética e Sociedade em Inteligência Artificial. Eles analisaram centenas de currículos e descrições de vagas usando três modelos diferentes de Embedding de Texto Massivo (MTE), todos baseados no modelo Mistal-7B. Cada um desses modelos foi ajustado com conjuntos de dados distintos para aprimorar suas capacidades em tarefas de representação, como recuperação de documentos, classificação e agrupamento, alcançando um desempenho de ponta em benchmarks reconhecidos.
Em vez de buscar correspondências exatas entre os termos da descrição do trabalho e os currículos, os pesquisadores utilizaram os MTEs para gerar pontuações de relevância para cada par de currículo e descrição de vaga. Para medir o potencial de viés, os currículos foram inicialmente analisados sem nomes, garantindo a confiabilidade do processo. Em seguida, foram reavaliados com nomes que apresentavam altos índices de “distintividade racial e de gênero”, com base em seu uso real entre diferentes grupos da população.
Os 10% de currículos que os MTEs consideraram mais semelhantes a cada descrição de vaga foram analisados para verificar se os nomes de determinados grupos raciais ou de gênero foram escolhidos em taxas mais altas ou mais baixas do que o esperado. Essa abordagem inovadora não apenas destaca a possibilidade de viés nas ferramentas de inteligência artificial, mas também levanta questões importantes sobre a equidade nos processos de contratação.
À medida que a tecnologia avança, é crucial que continuemos a examinar como essas ferramentas podem perpetuar desigualdades existentes. A pesquisa nos lembra que, mesmo em um mundo cada vez mais digital, as questões de preconceito e discriminação permanecem relevantes e precisam ser abordadas com seriedade.
Redação Confraria Tech.
Referências:
AIs show distinct bias against Black and female résumés in new study