Conclusione: chi vede gli LLM attuali come "Skynet" in Terminator non ha capito come funzionano.
-
Conclusione: chi vede gli LLM attuali come "Skynet" in Terminator non ha capito come funzionano. Gli LLM non hanno un "fine", un "obiettivo". Sono solo una relazione di input-output: dato un input, cacciano fuori un output. Non pensano, anche se fanno finta di farlo.
La confusione è alimentata dall'industria di questi LLM che usa termini come "thinking" quando in realtà non c'è alcun processo cognitivo.
-
Conclusione: chi vede gli LLM attuali come "Skynet" in Terminator non ha capito come funzionano. Gli LLM non hanno un "fine", un "obiettivo". Sono solo una relazione di input-output: dato un input, cacciano fuori un output. Non pensano, anche se fanno finta di farlo.
La confusione è alimentata dall'industria di questi LLM che usa termini come "thinking" quando in realtà non c'è alcun processo cognitivo.
@booboo
Ma la paura di Skynet non è mica legata alla "capacità cognitiva"! Concordo con le tue conclusioni, ma anche se dai un pulsante ad una scimmia prima o poi lo premerà anche se dietro non c'è alcun processo cognitivo (o c'è ma è così oscuro da non essere comprensibile).
Quello che spaventa è l'agentificazione ovvero il mettere nella mani di questi LLM i pulsanti per comandare i nostri telefoni e computer. Che corrispondono ai computer delle multinazionali e e delle agenzie governative. Che cosa potrebbe andare storto?
E non è nemmeno troppo la paura della casualità o degli errori a fare 90, bensì quanta e quale capacità di controllo dell'output resti nelle mani delle aziende sviluppatrici, come una "quarta direttiva" sempre pronta a prendere il controllo. -
@booboo
Ma la paura di Skynet non è mica legata alla "capacità cognitiva"! Concordo con le tue conclusioni, ma anche se dai un pulsante ad una scimmia prima o poi lo premerà anche se dietro non c'è alcun processo cognitivo (o c'è ma è così oscuro da non essere comprensibile).
Quello che spaventa è l'agentificazione ovvero il mettere nella mani di questi LLM i pulsanti per comandare i nostri telefoni e computer. Che corrispondono ai computer delle multinazionali e e delle agenzie governative. Che cosa potrebbe andare storto?
E non è nemmeno troppo la paura della casualità o degli errori a fare 90, bensì quanta e quale capacità di controllo dell'output resti nelle mani delle aziende sviluppatrici, come una "quarta direttiva" sempre pronta a prendere il controllo.@77nn Grazie per lo scambio.
Da assoluto profano, però, e se ho capito bene, rischi di danni ce ne sono, ma non c'è il rischio che un LLM "impazzisca" e "decida" che l'umanità è dannosa etc...
Quello che può succedere è che dia un output dannoso/sbagliato, con conseguenze nefaste.
Ma questo può succedere con qualunque protocollo di controllo. Come con i sensori del Boeing 737-Max 8 che davano feedback sbagliati al sistema costringendo l'aereo a schiantarsi.
-
@77nn Grazie per lo scambio.
Da assoluto profano, però, e se ho capito bene, rischi di danni ce ne sono, ma non c'è il rischio che un LLM "impazzisca" e "decida" che l'umanità è dannosa etc...
Quello che può succedere è che dia un output dannoso/sbagliato, con conseguenze nefaste.
Ma questo può succedere con qualunque protocollo di controllo. Come con i sensori del Boeing 737-Max 8 che davano feedback sbagliati al sistema costringendo l'aereo a schiantarsi.
@booboo solo che un sensore è deterministico anche nei suoi failure modes, un LLM no.
E poi c'è il discorso del controllo. Un sensore non è discrezionale né pilotabile dal cloud. -
@booboo solo che un sensore è deterministico anche nei suoi failure modes, un LLM no.
E poi c'è il discorso del controllo. Un sensore non è discrezionale né pilotabile dal cloud.@77nn OK, quello che volevo dire è che i rischi di cui tu parli non sono assolutamente influenzati dal fatto che un LLM sembri "umano" o faccia finta di "pensare" nel dare le risposte che dà.
Invece, la narrativa che si sente in giro è che: dare agency a un LLM è rischioso perché potrebbe "svegliarsi" e scegliere conclusioni "a suo favore".
Chiaro che gli esperti come te questa cosa non l'hanno mai bevuta.
Il mio era un post a uso e consumo di ignoranti totali del settore come me.
-
@77nn OK, quello che volevo dire è che i rischi di cui tu parli non sono assolutamente influenzati dal fatto che un LLM sembri "umano" o faccia finta di "pensare" nel dare le risposte che dà.
Invece, la narrativa che si sente in giro è che: dare agency a un LLM è rischioso perché potrebbe "svegliarsi" e scegliere conclusioni "a suo favore".
Chiaro che gli esperti come te questa cosa non l'hanno mai bevuta.
Il mio era un post a uso e consumo di ignoranti totali del settore come me.
@booboo
Sono un "informatico", ma non un esperto in LLM. Però non l'ho mai bevuta. E non bevo neanche questa cosa del "risveglio". Per me serve solo a solleticare le fantasie dei miliardari investitori che so battono per chi me avrà il controllo. Non sapendo che un LLM non svilupperà mai alcuna intelligenza perché non ne è in grado. Un LLM è un sistema esperto di linguaggio, l'evoluzione del traduttore di Google (o simile), forse poco di più. Potrebbe diventare l'interfaccia per le applicazioni di domani in grado di tradurre il linguaggio naturale in query sui sistemi (che è prettamente un lavoro di traduzione) e che già in parte sta facendo sui motori di ricerca e sui browser.