Se riesci a bucare il modello IA Claude, Anthropic ti dà fino a 20.000 dollari
Anthropic è sempre stata attenta alla sicurezza dei suoi LLM. Ora ha inventato i Classificatori Costituzionali che proteggono input e output da richieste dannose e, dietro compenso, sta sfidando gli utenti a bucarli... Leggi tutto
