Se riesci a bucare il modello IA Claude, Anthropic ti dà fino a 20.000 dollari

Anthropic è sempre stata attenta alla sicurezza dei suoi LLM. Ora ha inventato i Classificatori Costituzionali che proteggono input e output da richieste dannose e, dietro compenso, sta sfidando gli utenti a bucarli... Leggi tutto

Febbraio 6, 2025 - 10:07
 0  1
Se riesci a bucare il modello IA Claude, Anthropic ti dà fino a 20.000 dollari
Anthropic è sempre stata attenta alla sicurezza dei suoi LLM. Ora ha inventato i Classificatori Costituzionali che proteggono input e output da richieste dannose e, dietro compenso, sta sfidando gli utenti a bucarli... Leggi tutto

Questo sito utilizza i cookie. Continuando a navigare nel sito accetterai l'uso dei cookie.