@mau provo ad esprimere la mia prospettiva su questa faccenda. Intanto, il linguaggio che usiamo per descrivere un fenomeno rischia di generare significati artificiali, che non stanno né nelle cose né nella vita. Quando si parla di LLMs, se si ha cognizione di cosa siano, bisognerebbe tenere sempre presente che stiamo parlando di sistemi informatici molto complessi che però non escono fuori da ciò che è più propriamente sarebbe meglio chiamare automazione che non AI. In questa prospettiva, noi non "facciamo domande" ma componiamo degli input per sollecitare un sistema, è molto ma molto diverso. Sollecitato, il sistema genera automaticamente un output secondo il modo in cui è stato progettato, secondo la sua logica di funzionamento. Se sappiamo in cosa consiste la fase di "taratura" della matrice di pesi di un LLMs e di come quei valori reali sono memorizzati in DB vettoriali, non dovrebbe stupire il fatto di vedersi restituire in output dal sistema delle informazioni già in qualche modo contenute nei materiali impiegati per il tuning completati poi da quelle reperite nei DB vettoriali ed estratte secondo funzioni matematiche di distanza (vettoriale) tra termini e parole ridotte a vettori e valori reali. In tutto questo, parlare di "apprendimento", "domande", "risposte"... se non usiamo le virgolette significa che stiamo dando per scontato ciò che scontato non è.
Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine è usato in modo improprio, da un punto di vista di cosa realmente è una allucinazione, ma oltrettutto non ha nulla a che vedere con ciò che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.