L’IA impara anche da ricerche scientifiche bocciate: rischi gravi

I modelli di intelligenza artificiale come ChatGPT citano frequentemente studi scientifici ritirati dalla comunità accademica. Un'inchiesta del MIT Technology Review rivela come questi sistemi apprendano da dati inaffidabili, mettendo a rischio salute pubblica e fiducia nella tecnologia L'articolo L’IA impara anche da ricerche scientifiche bocciate: rischi gravi proviene da Agenda Digitale.

Ottobre 8, 2025 - 13:54
 0  0
L’IA impara anche da ricerche scientifiche bocciate: rischi gravi
I modelli di intelligenza artificiale come ChatGPT citano frequentemente studi scientifici ritirati dalla comunità accademica. Un'inchiesta del MIT Technology Review rivela come questi sistemi apprendano da dati inaffidabili, mettendo a rischio salute pubblica e fiducia nella tecnologia L'articolo L’IA impara anche da ricerche scientifiche bocciate: rischi gravi proviene da Agenda Digitale.
Agenda Digitale Il giornale sull'agenda digitale italiana

Questo sito utilizza i cookie. Continuando a navigare nel sito accetterai l'uso dei cookie.