Skip to content

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone

Republicans Distract From Epstein Controversy By Each Sharing Most Embarrassing Moment Of Life#Satire https://theonion.com/republicans-distract-from-epstein-controversy-by-each-sharing-most-embarrassing-moment-of-life/

Uncategorized
1 1 3

Gli ultimi otto messaggi ricevuti dalla Federazione
Post suggeriti
  • @ElonMusk trumputin

    Uncategorized
    1
    0 Votes
    1 Posts
    0 Views
    @ElonMusk trumputin
  • This post did not contain any content.

    Uncategorized
    1
    1
    0 Votes
    1 Posts
    0 Views
    This post did not contain any content.
  • Stasera non perderemo #Report

    Uncategorized report
    1
    1
    0 Votes
    1 Posts
    2 Views
    Stasera non perderemo #Report
  • 0 Votes
    1 Posts
    0 Views
    Un piccolo numero di campioni può avvelenare LLM di qualsiasi dimensione**In uno studio congiunto con l'AI Security Institute del Regno Unito e l'Alan Turing Institute, abbiamo scoperto che anche solo 250 documenti dannosi possono produrre una vulnerabilità "backdoor" in un modello linguistico di grandi dimensioni, indipendentemente dalle dimensioni del modello o dal volume dei dati di addestramento. Sebbene un modello con 13 miliardi di parametri venga addestrato su oltre 20 volte più dati di addestramento rispetto a un modello con 600 miliardi di parametri, entrambi possono essere colpiti da una backdoor tramite lo stesso numero limitato di documenti contaminati. I nostri risultati mettono in discussione l'ipotesi comune secondo cui gli aggressori debbano controllare una percentuale dei dati di addestramento; in realtà, potrebbero averne bisogno solo di una piccola quantità fissa. Il nostro studio si concentra su una backdoor ristretta (che produce testo incomprensibile) che difficilmente presenta rischi significativi nei modelli di frontiera. Ciononostante, condividiamo questi risultati per dimostrare che gli attacchi di data poisoning potrebbero essere più pratici di quanto si creda e per incoraggiare ulteriori ricerche sul data poisoning e sulle potenziali difese contro di esso.https://www.anthropic.com/research/small-samples-poisonLa notizia ha un mese, ma ci era sfuggita: grazie a @thatgiga per la segnalazione@aitech