ChatGPT, un ricercatore di sicurezza riesce ad impiantare "falsi ricordi" nel chatbot e li usa per sottrarre informazioni

Sfruttando la tecnica di indirect prompt injection un ricercatore riesce a impiantare ricordi nel chatbot, così come un comportamento ricorrente per esfiltrare dati dalle conversazioni con l'utente

Sett 26, 2024 - 13:01
 0  2
ChatGPT, un ricercatore di sicurezza riesce ad impiantare "falsi ricordi" nel chatbot e li usa per sottrarre informazioni
Sfruttando la tecnica di indirect prompt injection un ricercatore riesce a impiantare ricordi nel chatbot, così come un comportamento ricorrente per esfiltrare dati dalle conversazioni con l'utente
Hardware Upgrade Le News di Hardware Upgrade sulla tecnologia e sul mondo informatico - https://www.hwupgrade.it

Questo sito utilizza i cookie. Continuando a navigare nel sito accetterai l'uso dei cookie.