ChatGPT, un ricercatore di sicurezza riesce ad impiantare "falsi ricordi" nel chatbot e li usa per sottrarre informazioni
Sfruttando la tecnica di indirect prompt injection un ricercatore riesce a impiantare ricordi nel chatbot, così come un comportamento ricorrente per esfiltrare dati dalle conversazioni con l'utente
![ChatGPT, un ricercatore di sicurezza riesce ad impiantare "falsi ricordi" nel chatbot e li usa per sottrarre informazioni](https://www.hwupgrade.it/i/n/hacker_news_720.jpg)