Por exemplo, ao questionar a atual iteração do ChatGPT sobre palavras associadas aos afro-americanos, as respostas incluíam termos como “resiliência” e “criatividade”. No entanto, pesquisas recentes identificaram persistência de viés implícito em chatbots, mesmo após mudanças no comportamento externo.
Um estudo testou se os mesmos viéses persistiam em grandes modelos de linguagem. Os resultados foram impressionantes: ao interagir com esses modelos usando exemplos do socioleto do inglês afro-americano, foi constatado um viés extremamente negativo em relação aos falantes desse dialeto, ao contrário do que ocorreu com falantes de outra variante do inglês americano. Esse viés impactou as decisões dos modelos de linguagem em relação aos usuários do inglês afro-americano.
Essas descobertas levantam questões importantes sobre a necessidade de se abordar e corrigir viéses em inteligência artificial. É crucial garantir que essas tecnologias reflitam a diversidade e evitem perpetuar preconceitos. O caminho para aprimorar a imparcialidade e a equidade nesse cenário certamente será um desafio, mas é fundamental para um futuro just e inclusivo.
Redação Confraria Tech
Referências:
LLMs have a strong bias against use of African American English