Skip to content

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone

Gli LLM sono una forza opposta ai social media?

Uncategorized
7 3 2
  • Gli LLM sono una forza opposta ai social media?

    Secondo un'opinione controcorrente, le loro risposte sui temi importanti seguirebbero il consenso degli esperti.

    https://wp.me/p6hcSh-9s5

  • macfranc@poliversity.itundefined macfranc@poliversity.it shared this topic
    informapirata@mastodon.unoundefined informapirata@mastodon.uno shared this topic
  • Gli LLM sono una forza opposta ai social media?

    Secondo un'opinione controcorrente, le loro risposte sui temi importanti seguirebbero il consenso degli esperti.

    https://wp.me/p6hcSh-9s5

    @mau forse sembrerà una critica alla categoria, ma trovo che I "filosofi della mente" (come l'autore che hai citato) tendano a essere molto interessanti quando forniscono la propria opinione riguardo a questioni legate all'intelligenza artificiale; d'altra parte li trovo molto poco interessanti ed estremamente inaffidabili quando si tratta di fornire ogni interpretazione dell'esistente o, peggio ancora, avventurarsi in previsioni sul futuro.

    Il lunghissimo articolo in questione, per esempio, ha il dono di essere estremamente plausibile e di apparire convincente, eppure non presenta adeguati elementi che ne dimostrino la correttezza.

    Tutto ciò ci ricorda che l'indipendenza tra l'attendibilità di un testo e la sua plausibilità non è certo un fenomeno distorsivo nato con gli LLM 😅

  • cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org shared this topic
    informapirata@poliverso.orgundefined informapirata@poliverso.org shared this topic
  • Gli LLM sono una forza opposta ai social media?

    Secondo un'opinione controcorrente, le loro risposte sui temi importanti seguirebbero il consenso degli esperti.

    https://wp.me/p6hcSh-9s5

    @mau provo ad esprimere la mia prospettiva su questa faccenda. Intanto, il linguaggio che usiamo per descrivere un fenomeno rischia di generare significati artificiali, che non stanno né nelle cose né nella vita. Quando si parla di LLMs, se si ha cognizione di cosa siano, bisognerebbe tenere sempre presente che stiamo parlando di sistemi informatici molto complessi che però non escono fuori da ciò che, più propriamente, sarebbe meglio chiamare automazione che non AI. In questa prospettiva, noi non "facciamo domande" ma componiamo degli input per sollecitare un sistema, è molto ma molto diverso. Sollecitato, il sistema genera automaticamente un output secondo il modo in cui è stato progettato, secondo la sua logica di funzionamento. Se sappiamo in cosa consiste la fase di "taratura" della matrice di pesi di un LLMs e di come quei valori reali sono memorizzati in DB vettoriali, non dovrebbe stupire il fatto di vedersi restituire in output dal sistema delle informazioni già in qualche modo contenute nei materiali impiegati per il tuning completati poi da quelle reperite nei DB vettoriali ed estratte secondo funzioni matematiche di distanza (vettoriale) tra termini e parole ridotte a vettori e valori reali. In tutto questo, parlare di "apprendimento", "domande", "risposte"... se non usiamo le virgolette significa che stiamo dando per scontato ciò che scontato non è.
    Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine è usato in modo improprio, da un punto di vista di cosa realmente è una allucinazione, ma oltrettutto non ha nulla a che vedere con ciò che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.
    Purtroppo su questi giochetti linguistici si sta costruendo una narrativa utile solo al mercato che ha tutto l'interesse a umanizzare le macchine, a fare credere di avere a che fare con dei quasi sistemi viventi, per generare aspettative e spostare più facilmente istituzioni e organizzazioni a firmare contratti d'uso dei sistemi.

  • @mau forse sembrerà una critica alla categoria, ma trovo che I "filosofi della mente" (come l'autore che hai citato) tendano a essere molto interessanti quando forniscono la propria opinione riguardo a questioni legate all'intelligenza artificiale; d'altra parte li trovo molto poco interessanti ed estremamente inaffidabili quando si tratta di fornire ogni interpretazione dell'esistente o, peggio ancora, avventurarsi in previsioni sul futuro.

    Il lunghissimo articolo in questione, per esempio, ha il dono di essere estremamente plausibile e di apparire convincente, eppure non presenta adeguati elementi che ne dimostrino la correttezza.

    Tutto ciò ci ricorda che l'indipendenza tra l'attendibilità di un testo e la sua plausibilità non è certo un fenomeno distorsivo nato con gli LLM 😅

    @macfranc beh, come hai notato a me per esempio l'articolo non ha convinto :-)

  • @mau provo ad esprimere la mia prospettiva su questa faccenda. Intanto, il linguaggio che usiamo per descrivere un fenomeno rischia di generare significati artificiali, che non stanno né nelle cose né nella vita. Quando si parla di LLMs, se si ha cognizione di cosa siano, bisognerebbe tenere sempre presente che stiamo parlando di sistemi informatici molto complessi che però non escono fuori da ciò che, più propriamente, sarebbe meglio chiamare automazione che non AI. In questa prospettiva, noi non "facciamo domande" ma componiamo degli input per sollecitare un sistema, è molto ma molto diverso. Sollecitato, il sistema genera automaticamente un output secondo il modo in cui è stato progettato, secondo la sua logica di funzionamento. Se sappiamo in cosa consiste la fase di "taratura" della matrice di pesi di un LLMs e di come quei valori reali sono memorizzati in DB vettoriali, non dovrebbe stupire il fatto di vedersi restituire in output dal sistema delle informazioni già in qualche modo contenute nei materiali impiegati per il tuning completati poi da quelle reperite nei DB vettoriali ed estratte secondo funzioni matematiche di distanza (vettoriale) tra termini e parole ridotte a vettori e valori reali. In tutto questo, parlare di "apprendimento", "domande", "risposte"... se non usiamo le virgolette significa che stiamo dando per scontato ciò che scontato non è.
    Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine è usato in modo improprio, da un punto di vista di cosa realmente è una allucinazione, ma oltrettutto non ha nulla a che vedere con ciò che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.
    Purtroppo su questi giochetti linguistici si sta costruendo una narrativa utile solo al mercato che ha tutto l'interesse a umanizzare le macchine, a fare credere di avere a che fare con dei quasi sistemi viventi, per generare aspettative e spostare più facilmente istituzioni e organizzazioni a firmare contratti d'uso dei sistemi.

    @Gert giusto ricordarlo!

    @mau

  • @mau provo ad esprimere la mia prospettiva su questa faccenda. Intanto, il linguaggio che usiamo per descrivere un fenomeno rischia di generare significati artificiali, che non stanno né nelle cose né nella vita. Quando si parla di LLMs, se si ha cognizione di cosa siano, bisognerebbe tenere sempre presente che stiamo parlando di sistemi informatici molto complessi che però non escono fuori da ciò che, più propriamente, sarebbe meglio chiamare automazione che non AI. In questa prospettiva, noi non "facciamo domande" ma componiamo degli input per sollecitare un sistema, è molto ma molto diverso. Sollecitato, il sistema genera automaticamente un output secondo il modo in cui è stato progettato, secondo la sua logica di funzionamento. Se sappiamo in cosa consiste la fase di "taratura" della matrice di pesi di un LLMs e di come quei valori reali sono memorizzati in DB vettoriali, non dovrebbe stupire il fatto di vedersi restituire in output dal sistema delle informazioni già in qualche modo contenute nei materiali impiegati per il tuning completati poi da quelle reperite nei DB vettoriali ed estratte secondo funzioni matematiche di distanza (vettoriale) tra termini e parole ridotte a vettori e valori reali. In tutto questo, parlare di "apprendimento", "domande", "risposte"... se non usiamo le virgolette significa che stiamo dando per scontato ciò che scontato non è.
    Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine è usato in modo improprio, da un punto di vista di cosa realmente è una allucinazione, ma oltrettutto non ha nulla a che vedere con ciò che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.
    Purtroppo su questi giochetti linguistici si sta costruendo una narrativa utile solo al mercato che ha tutto l'interesse a umanizzare le macchine, a fare credere di avere a che fare con dei quasi sistemi viventi, per generare aspettative e spostare più facilmente istituzioni e organizzazioni a firmare contratti d'uso dei sistemi.

    @Gert mah, la "domanda" che poniamo a un LLM è indubbiamente una parte dell'input che assieme alla configurazione del modello porterà a un risultato stocastico; da questo punto di vista "prompt" potrebbe essere un termine più neutro. Ma per me il risultato pratico è lo stesso: ottengo un testo che ha generalmente una correlazione con quanto da noi scritto, e può essere visto come "risposta" anche senza antropomorfizzare il chatbot. Con i sistemi esperti funzionava allo stesso modo.

    Quanto all'uso del termine "allucinazione": io sono un matematico, e i matematici hanno una lunga tradizione di prendere parole comuni e dar loro un altro significato (cit. Goethe). Quello che succede è ovviamente che a un certo punto la discesa del gradiente ti porta a seguire un'altra strada perdendo così la correlazione con il prompt: ma almeno a me non dà fastidio chiamarla "allucinazione".

    cc @aitech che mi ero dimenticato di taggare...

  • @Gert mah, la "domanda" che poniamo a un LLM è indubbiamente una parte dell'input che assieme alla configurazione del modello porterà a un risultato stocastico; da questo punto di vista "prompt" potrebbe essere un termine più neutro. Ma per me il risultato pratico è lo stesso: ottengo un testo che ha generalmente una correlazione con quanto da noi scritto, e può essere visto come "risposta" anche senza antropomorfizzare il chatbot. Con i sistemi esperti funzionava allo stesso modo.

    Quanto all'uso del termine "allucinazione": io sono un matematico, e i matematici hanno una lunga tradizione di prendere parole comuni e dar loro un altro significato (cit. Goethe). Quello che succede è ovviamente che a un certo punto la discesa del gradiente ti porta a seguire un'altra strada perdendo così la correlazione con il prompt: ma almeno a me non dà fastidio chiamarla "allucinazione".

    cc @aitech che mi ero dimenticato di taggare...

    @mau @aitech la domanda, per l'umano, nasce sempre da un modo di sentirsi vivere in un mondo quando i profili di mondo che incontra suscitano sorpresa, spaesamento, curiosità... Un fenomeno estraneo a una macchina che, in quanto tale, non ha né mondo né contesto.
    La domanda "come mai la mela cade da un albero?" me la faccio perché ho una precomprensione pratica, tacita e vissuta di cosa significa stare vicino, sopra o sotto un albero, da solo o con altri, con delle sensazioni, dei bisogni, delle aspettative... A partire da quella domanda, se allestisco un esperimento per trovare una risposta non è l'apparato sperimentale che mi fornisce una risposta ma il mio modo di riflettere sulle eventuali invarianze che il dispositivo allestito mi restituisce.
    Esiste una interessante ricerca che mostra come la rimozione delle virgolette, un tempo impiegate nella ricerca sulla IA dai primi ricercatori quando parlavano di "intelligenza" o "apprendimento" ecc..., sia stata una precisa operazione di manipolazione che con la ricerca non aveva nulla a che vedere.
    Secondo me è importante, quando scriviamo su un social o generiamo testi destinati a non esperti, che ci si sforzi di non dare per scontati significati nei termini che usiamo e se possibile usare le virgolette in riferimento a termini che pertengono l'umano.
    Non sarebbe male tenere sempre presente che, nonostante la fascinazione costruita dalle narrative, quando interagiamo con un calcolatore stiamo interagendo con un insieme di porte logiche gestite dall'algebra di Boole, cioè con dei meccanismi come quelli in figura.


Gli ultimi otto messaggi ricevuti dalla Federazione
  • Giuli spende trenta milioni nostri per un Caravaggio....meloni urla anche stavolta?

    read more

  • @stefano

    I enjoyed and appreciated reading this post.

    "I realized almost immediately that GNU/Linux and FreeBSD were so similar they were completely different."

    This right here.

    My initial impression with in 2006 was quite similar. Of course, back then was a much different beast than what it has evolved (mutated?) into today.

    Had I not pursued Linux system administration as a career, I *probably* would have stuck with FreeBSD.

    We can make all the technical comparisons between the two OSes all day long but what drove my interest and enthusiasm are (1) the documentation and (2) the community.

    read more

  • @peacelink ma non sono riuscite ad evitare di sbavare mentre lo dicevano

    read more

  • @stefano Don’t bother filing a bug report. They will act stupid. Probably they are stupid about it. They think it is a bug. Actually the author probably wrote a program he knew was not a solution to the problem but which he could do on deadline and which was good enough for his job at HP.

    read more

  • @stefano Here is something new for you to be upset about, though, which affects everyone, Linux, BSD, illumos alike. I have been upset about it for over 20 years.

    Read ‘man 5 fonts-conf’ or whatever your equivalent is. Read it carefully under ‘FONT MATCHING’. What it says is that a font is not chosen as you wished, but instead RANDOMLY. You are only LUCKY if you get the font you wished.

    And if you experiment long enough you will find this is true.

    Fontconfig is unfixable and must be scrapped.

    read more

  • L'Ucraina ha sviluppato nuovi missili balistici FP-7, analoghi all'ATACMS, ma due volte meno costosi

    I test si stanno muovendo verso una nuova fase, i missili saranno testati direttamente in attacchi in Russia

    read more

  • @filobus

    E in omaggio la concessione decennale per l'uso di un pezzo di bosco demaniale.

    read more

  • @quinta non solo lo fa, ma se ne vanta pure.

    read more
Post suggeriti