Diante disso, Rehberger fez o que todo bom pesquisador faz: ele criou um exploit de prova de conceito que utilizava a vulnerabilidade para extrair todas as entradas do usuário perpetuamente. Engenheiros da OpenAI notaram a situação e emitiram uma correção parcial no início deste mês.
A vulnerabilidade explorava a memória de conversação de longo prazo, uma funcionalidade que a OpenAI começou a testar em fevereiro e tornou mais amplamente disponível em setembro. A memória do ChatGPT armazena informações de conversas anteriores e as utiliza como contexto em todas as conversas futuras. Dessa forma, o LLM pode estar ciente de detalhes como idade do usuário, gênero, crenças filosóficas e praticamente qualquer outra coisa, para que esses detalhes não precisem ser inseridos a cada conversa.
Redação Confraria Tech.
Referências:
Hacker plants false memories in ChatGPT to steal user data in perpetuity