Skip to content

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone

What the f… ?

Uncategorized
2 2 0

Gli ultimi otto messaggi ricevuti dalla Federazione
Post suggeriti
  • I started going to IETF meetings.

    Uncategorized
    1
    0 Votes
    1 Posts
    0 Views
    I started going to IETF meetings. Those events take place 3 times a year, with ~1000 people attending in person and another ~1000 remotely. A good chunk of those are paid to be there and some are employed by big companies like Apple and Google. This is the place where the fundamental fabric of the internet is constantly being improved. TLS 1.3, HTTP/3, MLS to name a few.With this in mind I have no fucking clue what Moxie was on about when he said interoperable protocols are stuck in the 1990s.
  • Cc @luca Qualcuno dice qualcosa... 🤷

    Uncategorized
    6
    0 Votes
    6 Posts
    0 Views
    @GustavinoBevilacqua @albertoefabio beh, alla fine gestisce le Ferrari 🙂
  • 0 Votes
    1 Posts
    0 Views
    Un piccolo numero di campioni può avvelenare LLM di qualsiasi dimensione**In uno studio congiunto con l'AI Security Institute del Regno Unito e l'Alan Turing Institute, abbiamo scoperto che anche solo 250 documenti dannosi possono produrre una vulnerabilità "backdoor" in un modello linguistico di grandi dimensioni, indipendentemente dalle dimensioni del modello o dal volume dei dati di addestramento. Sebbene un modello con 13 miliardi di parametri venga addestrato su oltre 20 volte più dati di addestramento rispetto a un modello con 600 miliardi di parametri, entrambi possono essere colpiti da una backdoor tramite lo stesso numero limitato di documenti contaminati. I nostri risultati mettono in discussione l'ipotesi comune secondo cui gli aggressori debbano controllare una percentuale dei dati di addestramento; in realtà, potrebbero averne bisogno solo di una piccola quantità fissa. Il nostro studio si concentra su una backdoor ristretta (che produce testo incomprensibile) che difficilmente presenta rischi significativi nei modelli di frontiera. Ciononostante, condividiamo questi risultati per dimostrare che gli attacchi di data poisoning potrebbero essere più pratici di quanto si creda e per incoraggiare ulteriori ricerche sul data poisoning e sulle potenziali difese contro di esso.https://www.anthropic.com/research/small-samples-poisonLa notizia ha un mese, ma ci era sfuggita: grazie a @thatgiga per la segnalazione@aitech
  • @judgyweevil caspita che mostruosità

    Uncategorized
    1
    0 Votes
    1 Posts
    0 Views
    @judgyweevil caspita che mostruosità