Allineamento AI, la lezione di Anthropic serve alle aziende
La ricerca di Anthropic dell'8 maggio 2026 dimostra che addestrare i modelli sui comportamenti corretti non basta: occorre insegnare le ragioni. Da Opus 4 ricattava nel 96% dei casi a Haiku 4.5 e successivi a zero. Per chi adotta agenti AI in produzione, la safety non è un filtro di output, è una proprietà del training L'articolo Allineamento AI, la lezione di Anthropic serve alle aziende proviene da Agenda Digitale.