Skip to content

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone
  • 0 Votes
    1 Posts
    0 Views
    🤖 Grok è sotto un’altra indagine in UE (ancora).Motivo: generazione di immagini intime non consensuali.Secondo un report, in 11 giorni sarebbero state create circa 3 milioni di immagini sessualizzate.23.000 coinvolgerebbero minori.L’Irlanda ha aperto un’inchiesta su #X per verificare la conformità al #GDPR.Prima c’erano già state mosse da parte di Francia e Regno Unito.Qui l'articolo originale: https://mashable.com/article/elon-musk-x-grok-eu-investigation-ireland-ai-generated-nonsconsensual-imagesQuando #GrokImagine è stato lanciato, diversi osservatori avevano notato che i sistemi di protezione contro i #deepfake sessuali erano deboli - per usare un eufemismo, ecco.Non assenti. Ma deboli.Deboli.Come uno dopo l'influenza.Debole.A dicembre scorso, molti utenti hanno iniziato a testare i limiti di Grok, con richieste di immagini di persone reali.Immagini intime generate SENZA consenso, di celebrities, persone reali e "altro" - mi fa schifo solo a pensarlo!È lì che la cosa è diventata ingestibile.E #X che ha fatto? Una cosuccia: ha cambiato policy, messo restrizioni (alcune) e, ovviamente, vietato immagini sessualizzate di persone reali.Ma.. ma per i regolatori europei conta il tempo tra il problema e la correzione stessa.Ora, la domanda tecnica è: se un #LLM genera contenuti illegali perché può farlo, è un bug? Un abuso? O una scelta progettuale troppo permissiva?Costruire un sistema generativo, vuole anche dire saper decidere/prevedere quali abusi saranno possibili.Di chi è allora la colpa?

Gli ultimi otto messaggi ricevuti dalla Federazione
Post suggeriti