Roba da pivelli
-
Roba da pivelli
@aitech - Magari non ci si può fidare degli LLM, ma quando la loro risposta si può verificare indipendentemente dov'è il il problema?
-
undefined macfranc@poliversity.it shared this topic
-
Roba da pivelli
@aitech - Magari non ci si può fidare degli LLM, ma quando la loro risposta si può verificare indipendentemente dov'è il il problema?
@mau@poliversity.it @aitech@feddit.it se non si può escludere che il LMM che si sta usando in un dato momento sia inaffidabile nelle risposte, allora ogni volta che se ne usa uno è necessario verificarne indipendentemente le risposte, quindi le sue risposte (hanno valore semantico nullo, e inoltre) fanno sprecare tempo e risorse 🤷
-
@mau@poliversity.it @aitech@feddit.it se non si può escludere che il LMM che si sta usando in un dato momento sia inaffidabile nelle risposte, allora ogni volta che se ne usa uno è necessario verificarne indipendentemente le risposte, quindi le sue risposte (hanno valore semantico nullo, e inoltre) fanno sprecare tempo e risorse 🤷
-
@mau@poliversity.it @aitech@feddit.it ma devi sapere in anticipo che è così! altrimenti rischi di fidarti di un chatbot che non ha quelle caratteristiche (tecnicamente direi "non soddisfa quelle specifiche di prestazione")
-
@mau@poliversity.it @aitech@feddit.it ma devi sapere in anticipo che è così! altrimenti rischi di fidarti di un chatbot che non ha quelle caratteristiche (tecnicamente direi "non soddisfa quelle specifiche di prestazione")