Backdoor nei modelli AI con pochi documenti
Anthropic ha scoperto che bastano 250 documenti "avvelenati— per manipolare i modelli AI di qualsiasi dimensione e ottenere comportamenti indesiderati. The post Backdoor nei modelli AI con pochi documenti appeared first on Punto Informatico.