Facile ingannare ChatGPT con del testo nascosto in un sito
Il prompt injection inganna ChatGPT: si possono inserire istruzioni nascoste in una ricerca, alterando le risposte di ChatGPT. Un esperimento ha dimostrato questa vulnerabilità, ora OpenAI sta lavorando per correggerla L'articolo Facile ingannare ChatGPT con del testo nascosto in un sito è un contenuto originale di Digitalic.
