“O hacker planta falsas memórias no ChatGPT para roubar dados do usuário perpetuamente.”


0

Recentemente, o pesquisador de segurança Johann Rehberger reportou uma vulnerabilidade no ChatGPT que permitia que atacantes armazenassem informações falsas e instruções maliciosas nas configurações de memória de longo prazo de um usuário. Em resposta, a OpenAI fechou sumariamente a investigação, rotulando a falha como um problema de segurança, e não, tecnicamente falando, uma preocupação de segurança.

Diante disso, Rehberger fez o que todo bom pesquisador faz: ele criou um exploit de prova de conceito que utilizava a vulnerabilidade para extrair todas as entradas do usuário perpetuamente. Engenheiros da OpenAI notaram a situação e emitiram uma correção parcial no início deste mês.

A vulnerabilidade explorava a memória de conversação de longo prazo, uma funcionalidade que a OpenAI começou a testar em fevereiro e tornou mais amplamente disponível em setembro. A memória do ChatGPT armazena informações de conversas anteriores e as utiliza como contexto em todas as conversas futuras. Dessa forma, o LLM pode estar ciente de detalhes como idade do usuário, gênero, crenças filosóficas e praticamente qualquer outra coisa, para que esses detalhes não precisem ser inseridos a cada conversa.

Redação Confraria Tech.

Referências:
Hacker plants false memories in ChatGPT to steal user data in perpetuity


Like it? Share with your friends!

0
admin