A OpenAI se preparou para as eleições desde o início do ano, estabelecendo uma estratégia que buscava prevenir que suas ferramentas fossem utilizadas na propagação de desinformação. Como parte dessa estratégia, a empresa garantiu que os usuários que perguntassem ao ChatGPT sobre como votar nos Estados Unidos fossem direcionados para o site CanIVote.org. No mês que antecedeu o dia da eleição, o ChatGPT orientou aproximadamente um milhão de pessoas a visitar esse site, promovendo informação confiável sobre o processo eleitoral.
Além disso, na própria data da eleição e no dia seguinte, o chatbot gerou 2 milhões de respostas, informando aos usuários que pediam resultados que consultassem fontes de notícias respeitáveis como Associated Press e Reuters. Outra preocupação da OpenAI foi manter a imparcialidade; as respostas do ChatGPT foram cuidadosamente projetadas para não expressar preferências políticas ou recomendar candidatos, mesmo quando os usuários faziam essas perguntas diretamente.
Embora o DALL-E não seja o único gerador de imagens por inteligência artificial, o fenômeno dos deepfakes relacionados às eleições ganhou destaque nas redes sociais. Um caso específico que chamou a atenção foi um deepfake que apresentava Kamala Harris em um vídeo de campanha, no qual foram inseridas declarações que ela nunca proferiu, como “Fui escolhida porque sou a contratação de diversidade definitiva”.
Neste cenário, a responsabilidade no uso da tecnologia se torna fundamental, especialmente em períodos críticos como as eleições. A OpenAI parece comprometida em esclarecer o papel de suas ferramentas, evitando que se tornem armas de desinformação e garantindo que a informação correta prevaleça.
Redação Confraria Tech.
Referências:
ChatGPT rejected 250,000 election deepfake requests