Amazon: scoperto un elevato volume di materiale pedopornografico nei dati di addestramento dell'AI
Amazon ha segnalato oltre un milione di casi di CSAM (Child sexual abuse material) nei propri dati di addestramento dell'AI, senza però chiarirne l'origine. Il NCMEC critica la mancanza di informazioni utili alle indagini. Il caso evidenzia i crescenti rischi per la sicurezza dei minori nello sviluppo dell'IA