Imagine que você insira um prompt que descreva uma pessoa de determinada etnia ou com características específicas. O que deveria ser uma representação diversificada e autêntica pode se transformar em uma imagem que reforça ideias preconcebidas, como a noção de que certas características são mais “atraentes” ou “aceitáveis” do que outras. Isso não apenas limita a diversidade nas representações, mas também perpetua uma visão distorcida da realidade.
Um exemplo disso é o uso do termo “wanton”, que carrega uma conotação negativa e muitas vezes é associado a comportamentos considerados imorais ou provocativos. Quando esse tipo de adjetivo é utilizado em prompts, a IA pode gerar imagens que reforçam estereótipos de gênero e sexualidade, contribuindo para uma narrativa que não reflete a complexidade e a riqueza das identidades humanas.
Esse fenômeno nos leva a refletir sobre a responsabilidade que temos ao criar e utilizar essas ferramentas. A tecnologia, por mais avançada que seja, ainda é moldada pelas percepções e preconceitos humanos. Portanto, ao elaborar prompts para geradores de imagens, é fundamental ter consciência do impacto que nossas palavras podem ter. A escolha cuidadosa de termos pode ajudar a promover representações mais justas e variadas, desafiando os estereótipos que muitas vezes dominam o espaço digital.
A boa notícia é que estamos cada vez mais conscientes dessas questões e, com isso, surgem oportunidades para educar tanto os criadores quanto os usuários sobre a importância de uma linguagem inclusiva e respeitosa. Ao fazermos isso, podemos contribuir para um futuro onde a tecnologia não apenas reflete a diversidade do mundo real, mas também a celebra. Assim, ao utilizarmos a inteligência artificial, podemos nos tornar agentes de mudança, promovendo uma representação mais fiel e abrangente da humanidade.
Redação Confraria Tech.
Referências:
4 Ways to Mitigate Bias in AI and Close the Diversity Deficit