Skip to content

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone

10 years today.

Uncategorized
51 51 0

Gli ultimi otto messaggi ricevuti dalla Federazione
  • @Gert mah, la "domanda" che poniamo a un LLM Γ¨ indubbiamente una parte dell'input che assieme alla configurazione del modello porterΓ  a un risultato stocastico; da questo punto di vista "prompt" potrebbe essere un termine piΓΉ neutro. Ma per me il risultato pratico Γ¨ lo stesso: ottengo un testo che ha generalmente una correlazione con quanto da noi scritto, e puΓ² essere visto come "risposta" anche senza antropomorfizzare il chatbot. Con i sistemi esperti funzionava allo stesso modo.

    Quanto all'uso del termine "allucinazione": io sono un matematico, e i matematici hanno una lunga tradizione di prendere parole comuni e dar loro un altro significato (cit. Goethe). Quello che succede è ovviamente che a un certo punto la discesa del gradiente ti porta a seguire un'altra strada perdendo così la correlazione con il prompt: ma almeno a me non dà fastidio chiamarla "allucinazione".

    cc @aitech che mi ero dimenticato di taggare...

    read more

  • @ilsimoneviaggiatore soni totalmente d'accordo con te!

    read more

  • @DieDammerung

    Beh, dai, non sono delle superstar, io le ho viste due anni fa e saremo stati 50.
    Avevano partecipato una volta alla notte della taranta mi pare.

    read more

  • @Gert giusto ricordarlo!

    @mau

    read more

  • @macfranc beh, come hai notato a me per esempio l'articolo non ha convinto :-)

    read more

  • Signori, tutto Γ¨ perfettibile, ma credo che in un momento storico come quello che stiamo vivendo, questa sia una grande notizia. Giustamente volevamo sovranitΓ  digitale, volevamo che "qualcuno" in Europa facesse qualcosa: eccolo, questo Γ¨ uno dei tanti qualcosa.

    Pensate che dire alle aziende "usate libre office" avrebbe funzionato (visto che finora non ha funzionato)? Certo che no.

    I manager vogliono costi certi, piattaforme scalabili con IA (perchΓ© ormai ce l'hanno tutti, e molti non capiscono che Γ¨ uno specchietto per le allodole, perΓ² la vogliono). Insomma, un'alternativa ai prodotti di Microsoft deve avere come minimo le stesse caratteristiche.

    Credo che Office.eu si rivolga proprio a questo tipo di clienti; ovvio che il privato puΓ² giΓ  benissimo usare LibreOffice o similia.

    read more

  • @mau provo ad esprimere la mia prospettiva su questa faccenda. Intanto, il linguaggio che usiamo per descrivere un fenomeno rischia di generare significati artificiali, che non stanno nΓ© nelle cose nΓ© nella vita. Quando si parla di LLMs, se si ha cognizione di cosa siano, bisognerebbe tenere sempre presente che stiamo parlando di sistemi informatici molto complessi che perΓ² non escono fuori da ciΓ² che, piΓΉ propriamente, sarebbe meglio chiamare automazione che non AI. In questa prospettiva, noi non "facciamo domande" ma componiamo degli input per sollecitare un sistema, Γ¨ molto ma molto diverso. Sollecitato, il sistema genera automaticamente un output secondo il modo in cui Γ¨ stato progettato, secondo la sua logica di funzionamento. Se sappiamo in cosa consiste la fase di "taratura" della matrice di pesi di un LLMs e di come quei valori reali sono memorizzati in DB vettoriali, non dovrebbe stupire il fatto di vedersi restituire in output dal sistema delle informazioni giΓ  in qualche modo contenute nei materiali impiegati per il tuning completati poi da quelle reperite nei DB vettoriali ed estratte secondo funzioni matematiche di distanza (vettoriale) tra termini e parole ridotte a vettori e valori reali. In tutto questo, parlare di "apprendimento", "domande", "risposte"... se non usiamo le virgolette significa che stiamo dando per scontato ciΓ² che scontato non Γ¨.
    Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine Γ¨ usato in modo improprio, da un punto di vista di cosa realmente Γ¨ una allucinazione, ma oltrettutto non ha nulla a che vedere con ciΓ² che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.
    Purtroppo su questi giochetti linguistici si sta costruendo una narrativa utile solo al mercato che ha tutto l'interesse a umanizzare le macchine, a fare credere di avere a che fare con dei quasi sistemi viventi, per generare aspettative e spostare piΓΉ facilmente istituzioni e organizzazioni a firmare contratti d'uso dei sistemi.

    read more

  • @nethack thank you!

    read more
Post suggeriti