Skip to content

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone

Dall'articolo (meraviglioso, l'ho divorato)postato da @informapirata

Uncategorized
5 3 1
  • Dall'articolo (meraviglioso, l'ho divorato)
    postato da @informapirata

    " Come pensa la macchina:un LLM smontato pezzo per pezzo "

    (Cit.)
    >>ogni token generato è un lancio di dado. La "intelligenza" apparente dell'output è il risultato di miliardi di parametri calibrati per dare i pesi giusti al dado. Ma resta un dado. Non c'è ragionamento, non c'è pianificazione, non c'è verifica. Il modello non "sa" che la prossima parola è giusta. Sa che è probabile. E probabile non significa corretto.
    _____________

    Una AI non capisce nulla. Dunque di intelligenza non ce n'è. E' un sofisticato lanciatore di dadi, un velocissimo calcolatore di probabilità che assembla testo non perchè capisce di cosa "parla", ma solo scegliendo parole da accodare una all'altra tramite calcoli di probabilità guidati da regolette.

    Traduco in modo più semplice: non ci capisce una mazza di quel che scrive, ma ha un sistema per generare testi plausibili , scegliendo una dopo l'altra parole che accostate, probabilmente (!) , hanno un senso. Talvolta ci azzecca. Tutto qui.

    Quindi ti da l'impressione di "sapere", di "capire" ecc., ma in realtà stai parlando con uno che letteralmente da i numeri, pesando quei numeri per sembrare ragionevole. MA non ci sta comunque capendo una beatissima mazza.

    Leggetelo, è ultra comprensibile e spiega tanto sulle "AI" in modo semplice.

  • informapirata@mastodon.unoundefined informapirata@mastodon.uno shared this topic on
  • Dall'articolo (meraviglioso, l'ho divorato)
    postato da @informapirata

    " Come pensa la macchina:un LLM smontato pezzo per pezzo "

    (Cit.)
    >>ogni token generato è un lancio di dado. La "intelligenza" apparente dell'output è il risultato di miliardi di parametri calibrati per dare i pesi giusti al dado. Ma resta un dado. Non c'è ragionamento, non c'è pianificazione, non c'è verifica. Il modello non "sa" che la prossima parola è giusta. Sa che è probabile. E probabile non significa corretto.
    _____________

    Una AI non capisce nulla. Dunque di intelligenza non ce n'è. E' un sofisticato lanciatore di dadi, un velocissimo calcolatore di probabilità che assembla testo non perchè capisce di cosa "parla", ma solo scegliendo parole da accodare una all'altra tramite calcoli di probabilità guidati da regolette.

    Traduco in modo più semplice: non ci capisce una mazza di quel che scrive, ma ha un sistema per generare testi plausibili , scegliendo una dopo l'altra parole che accostate, probabilmente (!) , hanno un senso. Talvolta ci azzecca. Tutto qui.

    Quindi ti da l'impressione di "sapere", di "capire" ecc., ma in realtà stai parlando con uno che letteralmente da i numeri, pesando quei numeri per sembrare ragionevole. MA non ci sta comunque capendo una beatissima mazza.

    Leggetelo, è ultra comprensibile e spiega tanto sulle "AI" in modo semplice.

    @andre123 @informapirata

    E dov'è l'articolo, mi hai fatto venire fame 😁

  • @andre123 @informapirata

    E dov'è l'articolo, mi hai fatto venire fame 😁

  • Dall'articolo (meraviglioso, l'ho divorato)
    postato da @informapirata

    " Come pensa la macchina:un LLM smontato pezzo per pezzo "

    (Cit.)
    >>ogni token generato è un lancio di dado. La "intelligenza" apparente dell'output è il risultato di miliardi di parametri calibrati per dare i pesi giusti al dado. Ma resta un dado. Non c'è ragionamento, non c'è pianificazione, non c'è verifica. Il modello non "sa" che la prossima parola è giusta. Sa che è probabile. E probabile non significa corretto.
    _____________

    Una AI non capisce nulla. Dunque di intelligenza non ce n'è. E' un sofisticato lanciatore di dadi, un velocissimo calcolatore di probabilità che assembla testo non perchè capisce di cosa "parla", ma solo scegliendo parole da accodare una all'altra tramite calcoli di probabilità guidati da regolette.

    Traduco in modo più semplice: non ci capisce una mazza di quel che scrive, ma ha un sistema per generare testi plausibili , scegliendo una dopo l'altra parole che accostate, probabilmente (!) , hanno un senso. Talvolta ci azzecca. Tutto qui.

    Quindi ti da l'impressione di "sapere", di "capire" ecc., ma in realtà stai parlando con uno che letteralmente da i numeri, pesando quei numeri per sembrare ragionevole. MA non ci sta comunque capendo una beatissima mazza.

    Leggetelo, è ultra comprensibile e spiega tanto sulle "AI" in modo semplice.

    Veramente un buon articolo divulgativo sul funzionamento interno dei .

    Code is Data <=> Data is Code

    L'unico errore informatico, purtroppo molto comune, è questo passaggio relativo al modello:
    Lo apro dal terminale con xxd, lo stesso approccio che userei per qualsiasi binario. Non è codice eseguibile, è un formato dati.
    In realtà, sia a livello teorico che pratico, ogni dato è codice eseguibile per almeno una macchina di . Quello che viene pomposamente definito "motore inferenziale" (nel caso specifico, LLama.cpp eseguito tramite ) non è altro che una macchina virtuale programmabile statisticamente che esegue un software espresso in forma matriciale, ovvero il modello.

    Tale macchina virtuale non fa altro che mappare meccanicamente (e iterativamente) un punto su spazio vettoriale multidimensionale (descritto dagli embedding dei token del prompt) in un punto di uno spazio vettoriale più piccolo (descritto dall'embedding del token più plausibile in output).

    D'altro canto, anche l'autore intuisce che si tratta di un software eseguito da una macchina virtuale a sua volta eseguita sul suo computer quando scrive
    Per fare un esempio concreto, ho chiesto a Llama 3.1 (8B, quello che gira sul mio Mac con Ollama)".
    Esatto il modello "gira". Viene eseguito.
    Perché è un software codificato in una matrice per una architettura custom (non x86_64 o ARMv8, ma llama.cpp).
    E il sorgente di quel software sono i testi utilizzati durante il processo di compilazione (impropriamente detto "training").

    Né probabilità né "predizioni"

    Anche parlare di "distribuzione di probabilità", a valle dei vari passaggi di "normalizzazione" è matematicamente errato: non si tratta di una distribuzione di probabilità, perché se andassimo a misurare nei testi utilizzati come sorgente per la compilazione del modello la frequenza in cui al prompt segue il nuovo token, nella maggioranza dei prompt non troveremmo alcun caso.
    Anche questo errore, purtroppo, è dannatamente diffuso.

    E' però funzionale a supportare il framework interpretativo del cosiddetto "algoritmo predittivo", mentre un LLM non predice alcunché: non c'è infatti alcun fenomeno esterno al calcolo con cui confrontare la correttezza della previsione. Per questo è tecnicamente insensato parlare di allucinazioni (oltre ad essere allucinante di per sé, perché proietta un'esperienza umana con conseguenze sociali che generano compassione, sul calcolo effettuato da una macchina).

    Errori di calcolo... e interpretativi

    Vi è poi una lacuna nel ragionamento che invalida le conclusioni (più precisamente la sezione 10, sul "perché funzionano"): la natura iterativa del processo di calcolo, secondo cui ogni token in output viene integrato nella sequenza di input (il prompt) e utilizzato per calcolare il token successivo, unito alla natura probabilistica del calcolo, determina un costante accumulo degli errori.

    Le mitigazioni proposte, come l'uso di contenuti aggiuntivi nel RAG o, nel caso di agenti, la possibilità di integrare nell'input l'output di altri tool, non fa altro che aumentare la percentuale "grounded" del contesto (prompt "grounded" + documenti RAG "grounded" + output precedente del LLM "ungrounded" + output dei tool deterministici "grounded") durante il calcolo del prossimo token plausibile (non probabile).

    Per intenderci, quando l'autore parla del sistema di agenti del suo Parrhesepstein scrive
    Il fact-checker automatico produce un punteggio: verde sopra l'80%, giallo sopra il 50%, rosso sotto. Così sai quanto fidarti.
    è vittima di un'allucinazione: ciascun agente produce un output ottimizzato per essere plausibile quando interpretato dall'uomo, ma prescinde completamente dalla comprensione dei testi in input.
    Dunque il fatto che il fact-checker dica 97% non implica che l'output dell'agente sia corretto al 97% o che abbia una probabilità del 97%, ma solo che un essere umano troverebbe plausibile quel numero come proseguimento del testo fornitogli in input.

    In altri termini, non "sai quando fidarti", ma "è plausibile che leggendo quel numero tu ti fida della sua correttezza (non necessariamente della correttezza di tutto il resto)".

    In altri termini, proprio a causa della sua architettura, non puoi mai fidarti dell'output di un LLM.

    Strumenti "nuovi"

    Infine l'autore scrive:
    Un LLM con ... è uno strumento che non esisteva cinque anni fa.
    La differenza non è nel modello, è in come lo usi.
    Formalmente ha ragione.

    Un LLM è uno strumento che non esisteva cinque anni fa. Ed è vero che può essere usato ogni qual volta non è necessario che un testo abbia significato, ma deve apparire plausibile quando interpretato da un essere umano.

    Il problema è che può essere usato solo per quello.

    SOLO se il suo output può non avere alcun significato.

    In pratica, è un generatore di Lorem ipsum a tema.

    CC: @informapirata@mastodon.uno
  • @giacomo

    Intanto grazie mille per l'approfondimento. Anche se, mi tocca ammettere che non sono così "addentro" da capire appieno le tue osservazioni. Infatti ogni tanto ancora riprendo l'articolo originale perchè ci sono passaggi che intuisco, ma di cui non comprendo tutto (o pienamente).
    Dormo poco....devo far passare parecchie ore....

    La cosa che mi mi fa suonare un campanello di allarme in testa è la parte finale della tua conclusione:

    " In pratica, è un generatore di Lorem ipsum a tema."

    Aiutami a capire: in buona sostanza *non esiste* ad oggi un modo per vincolare un LLM in modo che non spari cavolate, plausibili magari, ma non fondate, non legate a un significato ?
    O di verificare prima che risponda all'utente ?

    Se così fosse, ma allora... ci stanno lavorando o stanno spingendo come dannati una cosa che in pratica è un generatore seriale di cazzate altamente plausibili nella forma, che ogni tanto ci prende anche con il significato?
    In pratica un giocattolo, sofisticatissimo, ma....con ben poca utilità a mio avviso. Un oracolo sbronzo.... Considero il significato fondamentale in ogni forma di comunicazione. Altrimenti son supercazzole e basta...

    In questo caso è davvero *tanto* inquietante considerato tutto quello che vorrebbero affidare a questi LLM / AI. Incluso campo medico...militare... ecc.

    @informapirata


Gli ultimi otto messaggi ricevuti dalla Federazione
  • Viene anche prima se vogliamo essere pignoli

    read more

  • Alex Karp, CEO di Palantir: "A volte uccidiamo gente". Il genere umano non finirà bene.

    read more

  • @claus TikZ is actually what I'm going to want to end up with, so any other output format will need to be translated into it in the end anyway! But I want to quickly try out a lot of layouts until I find one that's clear, before I hand-code a TikZ representation of it.

    The kind of graph size I have in mind is something along these lines:
    https://www.chiark.greenend.org.uk/~sgtatham/quasiblog/aperiodic-transducers/#p2-transducer
    It won't be that exact graph, but it will be a couple of graphs of that general size and complexity.

    In particular there will probably be a fundamental symmetry of the graph which I'll want the layout to reveal rather than obscuring. (That's true of this example too, but you can't see it at all in the tangle Graphviz made!)

    read more

  • @lorcon @GustavinoBevilacqua cinghia di trasmissione intendi i sindacati?

    read more

  • @simontatham perhaps not exactly the answer to your question, but spytial[https://github.com/sidprasad/spytial] allows you to specify layout constraints that are dispatched to an smt solver and generates diagrams that obey those layout constraints. Probably a bit more work on your side as you’d have to specify what constraints you want, but it’s a pretty low effort tool for what it achieves. It also allows you to drag stuff around and restructures the diagram to ensure it maintains the constraints. I’ve personally not used it for anything but small examples and demos, but it looks promising!

    read more

  • @simontatham how complex of a graph, and is the interactive portion a hard requirement? I'm slightly biased towards TiKZ, as it lets me define nodes, edges, and their attributes declaratively. It's not exactly interactive, but if you have a decent LaTeX editor then at least you can see the result of your graph declaration quickly, and I find that it minimizes the amount of tinkering I need to do while constructing charts. There are also markdown-targeted libraries like Mermaid that claim to do the same. I don't particularly like them, but I'd be negligent if I didn't at least mention them.

    For truly interactive tools you're probably going to need to dip into commercial solutions. Visio is the classic offering for Microsoft systems. OSX's equivalent is OmniGraffle. And the online equivalent is Lucidchart.

    read more

  • @lysander @Zambunny @anominominominous

    Tutto ciò nonostante quella parola si trovi in almeno 2 doppiaggi iconici di Iscallonarasa

    read more

  • @simontatham pretty sure there's a way to run graphiz that just adds the vertex location information to the dot file, and you can modify those by hand, and then generate the image.. I don't remember how.. try -Tdot maybe? https://graphviz.org/docs/outputs/canon/

    read more
Post suggeriti