ChatGPT, un ricercatore di sicurezza riesce ad impiantare "falsi ricordi" nel chatbot e li usa per sottrarre informazioni
Sfruttando la tecnica di indirect prompt injection un ricercatore riesce a impiantare ricordi nel chatbot, così come un comportamento ricorrente per esfiltrare dati dalle conversazioni con l'utente
