Skip to content

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone

Gli LLM sono una forza opposta ai social media?

Uncategorized
7 3 2
  • Gli LLM sono una forza opposta ai social media?

    Secondo un'opinione controcorrente, le loro risposte sui temi importanti seguirebbero il consenso degli esperti.

    https://wp.me/p6hcSh-9s5

  • macfranc@poliversity.itundefined macfranc@poliversity.it shared this topic
    informapirata@mastodon.unoundefined informapirata@mastodon.uno shared this topic
  • Gli LLM sono una forza opposta ai social media?

    Secondo un'opinione controcorrente, le loro risposte sui temi importanti seguirebbero il consenso degli esperti.

    https://wp.me/p6hcSh-9s5

    @mau forse sembrerà una critica alla categoria, ma trovo che I "filosofi della mente" (come l'autore che hai citato) tendano a essere molto interessanti quando forniscono la propria opinione riguardo a questioni legate all'intelligenza artificiale; d'altra parte li trovo molto poco interessanti ed estremamente inaffidabili quando si tratta di fornire ogni interpretazione dell'esistente o, peggio ancora, avventurarsi in previsioni sul futuro.

    Il lunghissimo articolo in questione, per esempio, ha il dono di essere estremamente plausibile e di apparire convincente, eppure non presenta adeguati elementi che ne dimostrino la correttezza.

    Tutto ciò ci ricorda che l'indipendenza tra l'attendibilità di un testo e la sua plausibilità non è certo un fenomeno distorsivo nato con gli LLM 😅

  • cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org shared this topic
    informapirata@poliverso.orgundefined informapirata@poliverso.org shared this topic
  • Gli LLM sono una forza opposta ai social media?

    Secondo un'opinione controcorrente, le loro risposte sui temi importanti seguirebbero il consenso degli esperti.

    https://wp.me/p6hcSh-9s5

    @mau provo ad esprimere la mia prospettiva su questa faccenda. Intanto, il linguaggio che usiamo per descrivere un fenomeno rischia di generare significati artificiali, che non stanno né nelle cose né nella vita. Quando si parla di LLMs, se si ha cognizione di cosa siano, bisognerebbe tenere sempre presente che stiamo parlando di sistemi informatici molto complessi che però non escono fuori da ciò che, più propriamente, sarebbe meglio chiamare automazione che non AI. In questa prospettiva, noi non "facciamo domande" ma componiamo degli input per sollecitare un sistema, è molto ma molto diverso. Sollecitato, il sistema genera automaticamente un output secondo il modo in cui è stato progettato, secondo la sua logica di funzionamento. Se sappiamo in cosa consiste la fase di "taratura" della matrice di pesi di un LLMs e di come quei valori reali sono memorizzati in DB vettoriali, non dovrebbe stupire il fatto di vedersi restituire in output dal sistema delle informazioni già in qualche modo contenute nei materiali impiegati per il tuning completati poi da quelle reperite nei DB vettoriali ed estratte secondo funzioni matematiche di distanza (vettoriale) tra termini e parole ridotte a vettori e valori reali. In tutto questo, parlare di "apprendimento", "domande", "risposte"... se non usiamo le virgolette significa che stiamo dando per scontato ciò che scontato non è.
    Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine è usato in modo improprio, da un punto di vista di cosa realmente è una allucinazione, ma oltrettutto non ha nulla a che vedere con ciò che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.
    Purtroppo su questi giochetti linguistici si sta costruendo una narrativa utile solo al mercato che ha tutto l'interesse a umanizzare le macchine, a fare credere di avere a che fare con dei quasi sistemi viventi, per generare aspettative e spostare più facilmente istituzioni e organizzazioni a firmare contratti d'uso dei sistemi.

  • @mau forse sembrerà una critica alla categoria, ma trovo che I "filosofi della mente" (come l'autore che hai citato) tendano a essere molto interessanti quando forniscono la propria opinione riguardo a questioni legate all'intelligenza artificiale; d'altra parte li trovo molto poco interessanti ed estremamente inaffidabili quando si tratta di fornire ogni interpretazione dell'esistente o, peggio ancora, avventurarsi in previsioni sul futuro.

    Il lunghissimo articolo in questione, per esempio, ha il dono di essere estremamente plausibile e di apparire convincente, eppure non presenta adeguati elementi che ne dimostrino la correttezza.

    Tutto ciò ci ricorda che l'indipendenza tra l'attendibilità di un testo e la sua plausibilità non è certo un fenomeno distorsivo nato con gli LLM 😅

    @macfranc beh, come hai notato a me per esempio l'articolo non ha convinto :-)

  • @mau provo ad esprimere la mia prospettiva su questa faccenda. Intanto, il linguaggio che usiamo per descrivere un fenomeno rischia di generare significati artificiali, che non stanno né nelle cose né nella vita. Quando si parla di LLMs, se si ha cognizione di cosa siano, bisognerebbe tenere sempre presente che stiamo parlando di sistemi informatici molto complessi che però non escono fuori da ciò che, più propriamente, sarebbe meglio chiamare automazione che non AI. In questa prospettiva, noi non "facciamo domande" ma componiamo degli input per sollecitare un sistema, è molto ma molto diverso. Sollecitato, il sistema genera automaticamente un output secondo il modo in cui è stato progettato, secondo la sua logica di funzionamento. Se sappiamo in cosa consiste la fase di "taratura" della matrice di pesi di un LLMs e di come quei valori reali sono memorizzati in DB vettoriali, non dovrebbe stupire il fatto di vedersi restituire in output dal sistema delle informazioni già in qualche modo contenute nei materiali impiegati per il tuning completati poi da quelle reperite nei DB vettoriali ed estratte secondo funzioni matematiche di distanza (vettoriale) tra termini e parole ridotte a vettori e valori reali. In tutto questo, parlare di "apprendimento", "domande", "risposte"... se non usiamo le virgolette significa che stiamo dando per scontato ciò che scontato non è.
    Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine è usato in modo improprio, da un punto di vista di cosa realmente è una allucinazione, ma oltrettutto non ha nulla a che vedere con ciò che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.
    Purtroppo su questi giochetti linguistici si sta costruendo una narrativa utile solo al mercato che ha tutto l'interesse a umanizzare le macchine, a fare credere di avere a che fare con dei quasi sistemi viventi, per generare aspettative e spostare più facilmente istituzioni e organizzazioni a firmare contratti d'uso dei sistemi.

    @Gert giusto ricordarlo!

    @mau

  • @mau provo ad esprimere la mia prospettiva su questa faccenda. Intanto, il linguaggio che usiamo per descrivere un fenomeno rischia di generare significati artificiali, che non stanno né nelle cose né nella vita. Quando si parla di LLMs, se si ha cognizione di cosa siano, bisognerebbe tenere sempre presente che stiamo parlando di sistemi informatici molto complessi che però non escono fuori da ciò che, più propriamente, sarebbe meglio chiamare automazione che non AI. In questa prospettiva, noi non "facciamo domande" ma componiamo degli input per sollecitare un sistema, è molto ma molto diverso. Sollecitato, il sistema genera automaticamente un output secondo il modo in cui è stato progettato, secondo la sua logica di funzionamento. Se sappiamo in cosa consiste la fase di "taratura" della matrice di pesi di un LLMs e di come quei valori reali sono memorizzati in DB vettoriali, non dovrebbe stupire il fatto di vedersi restituire in output dal sistema delle informazioni già in qualche modo contenute nei materiali impiegati per il tuning completati poi da quelle reperite nei DB vettoriali ed estratte secondo funzioni matematiche di distanza (vettoriale) tra termini e parole ridotte a vettori e valori reali. In tutto questo, parlare di "apprendimento", "domande", "risposte"... se non usiamo le virgolette significa che stiamo dando per scontato ciò che scontato non è.
    Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine è usato in modo improprio, da un punto di vista di cosa realmente è una allucinazione, ma oltrettutto non ha nulla a che vedere con ciò che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.
    Purtroppo su questi giochetti linguistici si sta costruendo una narrativa utile solo al mercato che ha tutto l'interesse a umanizzare le macchine, a fare credere di avere a che fare con dei quasi sistemi viventi, per generare aspettative e spostare più facilmente istituzioni e organizzazioni a firmare contratti d'uso dei sistemi.

    @Gert mah, la "domanda" che poniamo a un LLM è indubbiamente una parte dell'input che assieme alla configurazione del modello porterà a un risultato stocastico; da questo punto di vista "prompt" potrebbe essere un termine più neutro. Ma per me il risultato pratico è lo stesso: ottengo un testo che ha generalmente una correlazione con quanto da noi scritto, e può essere visto come "risposta" anche senza antropomorfizzare il chatbot. Con i sistemi esperti funzionava allo stesso modo.

    Quanto all'uso del termine "allucinazione": io sono un matematico, e i matematici hanno una lunga tradizione di prendere parole comuni e dar loro un altro significato (cit. Goethe). Quello che succede è ovviamente che a un certo punto la discesa del gradiente ti porta a seguire un'altra strada perdendo così la correlazione con il prompt: ma almeno a me non dà fastidio chiamarla "allucinazione".

    cc @aitech che mi ero dimenticato di taggare...

  • @Gert mah, la "domanda" che poniamo a un LLM è indubbiamente una parte dell'input che assieme alla configurazione del modello porterà a un risultato stocastico; da questo punto di vista "prompt" potrebbe essere un termine più neutro. Ma per me il risultato pratico è lo stesso: ottengo un testo che ha generalmente una correlazione con quanto da noi scritto, e può essere visto come "risposta" anche senza antropomorfizzare il chatbot. Con i sistemi esperti funzionava allo stesso modo.

    Quanto all'uso del termine "allucinazione": io sono un matematico, e i matematici hanno una lunga tradizione di prendere parole comuni e dar loro un altro significato (cit. Goethe). Quello che succede è ovviamente che a un certo punto la discesa del gradiente ti porta a seguire un'altra strada perdendo così la correlazione con il prompt: ma almeno a me non dà fastidio chiamarla "allucinazione".

    cc @aitech che mi ero dimenticato di taggare...

    @mau @aitech la domanda, per l'umano, nasce sempre da un modo di sentirsi vivere in un mondo quando i profili di mondo che incontra suscitano sorpresa, spaesamento, curiosità... Un fenomeno estraneo a una macchina che, in quanto tale, non ha né mondo né contesto.
    La domanda "come mai la mela cade da un albero?" me la faccio perché ho una precomprensione pratica, tacita e vissuta di cosa significa stare vicino, sopra o sotto un albero, da solo o con altri, con delle sensazioni, dei bisogni, delle aspettative... A partire da quella domanda, se allestisco un esperimento per trovare una risposta non è l'apparato sperimentale che mi fornisce una risposta ma il mio modo di riflettere sulle eventuali invarianze che il dispositivo allestito mi restituisce.
    Esiste una interessante ricerca che mostra come la rimozione delle virgolette, un tempo impiegate nella ricerca sulla IA dai primi ricercatori quando parlavano di "intelligenza" o "apprendimento" ecc..., sia stata una precisa operazione di manipolazione che con la ricerca non aveva nulla a che vedere.
    Secondo me è importante, quando scriviamo su un social o generiamo testi destinati a non esperti, che ci si sforzi di non dare per scontati significati nei termini che usiamo e se possibile usare le virgolette in riferimento a termini che pertengono l'umano.
    Non sarebbe male tenere sempre presente che, nonostante la fascinazione costruita dalle narrative, quando interagiamo con un calcolatore stiamo interagendo con un insieme di porte logiche gestite dall'algebra di Boole, cioè con dei meccanismi come quelli in figura.


Gli ultimi otto messaggi ricevuti dalla Federazione
Post suggeriti
  • 0 Votes
    1 Posts
    0 Views
    14 marzo 2018: «Não serei interrompida»@anarchia Muore assassinata Marielle Franco, “cria da Maré”. di Bruno Lai. Marielle Franco è una donna straordinaria, simbolo globale di resistenza e di lotta contro l’oppressione sistemica. Ed è anche una donna che sa trasformare le proprie radici in una forza...Vedi https://www.rivoluzioneanarchica.it/14-marzo-2018-nao-serei-interrompida/
  • 0 Votes
    1 Posts
    2 Views
    Optique just crossed 600 GitHub stars! For those unfamiliar: #Optique is a #CLI parsing library for #TypeScript that takes a parser combinator approach, inspired by Haskell's optparse-applicative. The core idea is “parse, don't validate”—you express constraints like mutually exclusive options or dependent flags through types, and TypeScript infers the rest automatically. No runtime validation boilerplate needed. It started as something I built out of frustration while working on Fedify, an ActivityPub framework, when no existing CLI library could express the constraints I needed in a type-safe way. Apparently I wasn't the only one who felt that way. Thank you all for the support. https://github.com/dahlia/optique
  • Ah, anche poeta™

    Uncategorized
    1
    1
    0 Votes
    1 Posts
    2 Views
    Ah, anche poeta™
  • 0 Votes
    31 Posts
    19 Views
    Sì, è vero, è sicuramente anche per noi utenti privati. Come dici tu tutto dipenderà dai prezzi, è lì che si capirà il target, ma potrebbero benissimo essere tutti e due. Vedremo. Anch'io ho compilato il modulo, vedremo. Per il momento mi basta e avanza la suite Infomaniak e il mio nextcloud personale.