Uma IA “alucina” quando gera respostas falsas ou enganosas a perguntas que exigem respostas factuais devido a vários fatores, como dados de treinamento imprecisos e modelos de IA com dificuldades para analisar múltiplas fontes de informação. O Meta diz que atualizou as respostas de sua IA e admite que deveria tê-lo feito mais cedo. A empresa ainda está trabalhando para resolver o problema das alucinações, então seu chatbot ainda poderia estar dizendo às pessoas que não houve tentativa de assassinato do ex-presidente.
Além disso, o Meta também explicou por que suas plataformas de mídia social estavam aplicando incorretamente o rótulo de verificação de fatos à foto de Trump com o punho no ar tirada logo após a tentativa de assassinato. Uma versão adulterada da imagem fazia parecer que seus agentes do Serviço Secreto estavam sorrindo, e a empresa aplicou um rótulo de verificação de fatos a ela. Como as fotos original e adulterada eram quase idênticas, os sistemas do Meta aplicaram o rótulo à imagem real também. A empresa corrigiu o erro desde então.
Os apoiadores de Trump têm reclamado das ações da IA do Meta e acusado a empresa de suprimir a história. O Google teve que emitir uma resposta própria depois que Elon Musk afirmou que o mecanismo de busca da empresa impôs um “banimento de busca” ao ex-presidente. Musk compartilhou uma imagem que mostrava o recurso de autocompletar do Google sugerindo “presidente donald duck” quando alguém digita “presidente donald”. O Google explicou que foi devido a um bug que afetava seu recurso de autocompletar e disse que os usuários podem pesquisar o que quiserem a qualquer momento.
Redação Confraria Tech.
Referências:
Meta explains why its AI claimed Trump’s assassination attempt didn’t happen