Un nuovo studio di Anthropic spiega come sia semplicissimo "avvelenare" un modello di IA con piccole modifiche a un dataset di addestramento, per indurre il modello a generare risposte errate o dannose.
Uncategorized
2
Posts
2
Posters
0
Views
-
Un nuovo studio di Anthropic spiega come sia semplicissimo "avvelenare" un modello di IA con piccole modifiche a un dataset di addestramento, per indurre il modello a generare risposte errate o dannose.
https://www.theregister.com/2025/10/09/its_trivially_easy_to_poison/ -
Un nuovo studio di Anthropic spiega come sia semplicissimo "avvelenare" un modello di IA con piccole modifiche a un dataset di addestramento, per indurre il modello a generare risposte errate o dannose.
https://www.theregister.com/2025/10/09/its_trivially_easy_to_poison/@silvanomarioni molto interessante, quindi la nuova frontiera è controllare un network di siti e blog e orientare l'informazione estratta dalle IA.