Skip to content

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone

Rimuovere dati privati dai modelli di AI?

Uncategorized
1 1 2
  • Rimuovere dati privati dai modelli di AI? Ora è possibile senza accedere ai set di dati originali

    Un team dell’Università della California, Riverside, ha mostrato un nuovo modo per rimuovere dati privati e protetti da copyright dai modelli di intelligenza artificiale senza accedere ai set di dati originali. La soluzione affronta il problema dei contenuti personali e a pagamento riprodotti quasi alla lettera nelle risposte, anche quando le fonti vengono eliminate o bloccate dietro password e paywall.

    L’approccio è chiamato “source-free certified unlearning”. Viene utilizzato un set surrogato statisticamente simile all’originale. I parametri del modello vengono modificati come se fosse stato riaddestrato da zero. Viene introdotto rumore casuale accuratamente calcolato per garantire la cancellazione. Il metodo dispone di un nuovo meccanismo di calibrazione del rumore che compensa le discrepanze tra i dati originali e quelli surrogati. L’obiettivo è rimuovere le informazioni selezionate e mantenere le prestazioni sul materiale rimanente.

    La domanda di tale tecnologia è dettata dai requisiti del GDPR e del CCPA, nonché dalle controversie relative all’addestramento su testi protetti. I modelli linguistici vengono addestrati su Internet e talvolta producono frammenti quasi esatti delle fonti, il che consente di aggirare l’accesso a pagamento. Separatamente, il New York Times ha intentato una causa contro OpenAI e Microsoft in merito all’uso di articoli per addestrare i modelli GPT.

    Gli autori hanno testato il metodo su set di dati sintetici e reali. L’approccio è adatto anche quando i set di dati originali sono persi, frammentati o legalmente inaccessibili.

    Il lavoro è attualmente progettato per architetture più semplici, ancora ampiamente utilizzate, ma con ulteriori sviluppi il meccanismo può essere scalato a sistemi più ampi come ChatGPT.

    I prossimi passi sono l’adattamento a tipologie di modelli e dati più complesse, nonché la creazione di strumenti che renderanno la tecnologia disponibile agli sviluppatori di tutto il mondo. La tecnologia è utile per i media, le organizzazioni mediche e altri proprietari di informazioni sensibili, e offre inoltre alle persone la possibilità di richiedere la rimozione di dati personali e proprietari dall’IA.

    L'articolo Rimuovere dati privati dai modelli di AI? Ora è possibile senza accedere ai set di dati originali proviene da il blog della sicurezza informatica.


Gli ultimi otto messaggi ricevuti dalla Federazione
Post suggeriti
  • 0 Votes
    1 Posts
    0 Views
    Compagnie petrolifere Usa al presidente: “Probabile che la crisi peggiori"Repubblica #Iran #Usa #petrolio
  • La democrazia fascista più grande del mondo

    Uncategorized
    1
    0 Votes
    1 Posts
    1 Views
    La democrazia fascista più grande del mondo
  • Why I love FreeBSD

    Uncategorized freebsd itnotes runbsd sysadmin opensource
    10
    0 Votes
    10 Posts
    1 Views
    @nethack if you click the "freebsd" tag, you'll find many blog posts about how to do things with FreeBSD (and benchmarks, etc.)
  • Gli LLM sono una forza opposta ai social media?

    Uncategorized
    7
    0 Votes
    7 Posts
    2 Views
    @mau @aitech la domanda, per l'umano, nasce sempre da un modo di sentirsi vivere in un mondo quando i profili di mondo che incontra suscitano sorpresa, spaesamento, curiosità... Un fenomeno estraneo a una macchina che, in quanto tale, non ha né mondo né contesto.La domanda "come mai la mela cade da un albero?" me la faccio perché ho una precomprensione pratica, tacita e vissuta di cosa significa stare vicino, sopra o sotto un albero, da solo o con altri, con delle sensazioni, dei bisogni, delle aspettative... A partire da quella domanda, se allestisco un esperimento per trovare una risposta non è l'apparato sperimentale che mi fornisce una risposta ma il mio modo di riflettere sulle eventuali invarianze che il dispositivo allestito mi restituisce.Esiste una interessante ricerca che mostra come la rimozione delle virgolette, un tempo impiegate nella ricerca sulla IA dai primi ricercatori quando parlavano di "intelligenza" o "apprendimento" ecc..., sia stata una precisa operazione di manipolazione che con la ricerca non aveva nulla a che vedere.Secondo me è importante, quando scriviamo su un social o generiamo testi destinati a non esperti, che ci si sforzi di non dare per scontati significati nei termini che usiamo e se possibile usare le virgolette in riferimento a termini che pertengono l'umano.Non sarebbe male tenere sempre presente che, nonostante la fascinazione costruita dalle narrative, quando interagiamo con un calcolatore stiamo interagendo con un insieme di porte logiche gestite dall'algebra di Boole, cioè con dei meccanismi come quelli in figura.