Le allucinazioni dell'intelligenza artificiale?
-
Le allucinazioni dell'intelligenza artificiale? Inevitabili
Come spiega il matematico Wei Xing, i framework di valutazione dell’ #IA — inclusi quelli usati da Google e OpenAI — penalizzano l’incertezza.
Un modello che risponde “non lo so” ottiene lo stesso punteggio di uno che sbaglia del tutto.
Risultato: le intelligenze artificiali imparano che è meglio tirare a indovinare che essere oneste.https://focustech.it/scienza/la-verita-che-chatgpt-non-puo-dire/
-
Le allucinazioni dell'intelligenza artificiale? Inevitabili
Come spiega il matematico Wei Xing, i framework di valutazione dell’ #IA — inclusi quelli usati da Google e OpenAI — penalizzano l’incertezza.
Un modello che risponde “non lo so” ottiene lo stesso punteggio di uno che sbaglia del tutto.
Risultato: le intelligenze artificiali imparano che è meglio tirare a indovinare che essere oneste.https://focustech.it/scienza/la-verita-che-chatgpt-non-puo-dire/
@francal @aitech allora normale che se hai l'impalcatura a destra, la macchina ti dica che è a sinistra. O viceversa.
Mai da usare negli spostamenti su strada come ausilio per ciechi, e questi la vogliono mettere per rispondere a questioni mediche, legali, farla guidare mezzi di trasporto "mainstream"... in troppi settori ci si sta fidando per entusiasmo e marketing senza guardare le conseguenze. Come uno che si mette i coltelli al posto del materasso. Sono utili entrambi, ma per fini diversi! -
Le allucinazioni dell'intelligenza artificiale? Inevitabili
Come spiega il matematico Wei Xing, i framework di valutazione dell’ #IA — inclusi quelli usati da Google e OpenAI — penalizzano l’incertezza.
Un modello che risponde “non lo so” ottiene lo stesso punteggio di uno che sbaglia del tutto.
Risultato: le intelligenze artificiali imparano che è meglio tirare a indovinare che essere oneste.https://focustech.it/scienza/la-verita-che-chatgpt-non-puo-dire/