作者:
arrenwu (鍵盤的戰鬼)
2025-11-22 19:20:32※ 引述《jerry00116 (飛羽觴而醉月)》之銘言:
: 和歌山市生活保健課提醒:「以 AI 或圖鑑自行判斷非常危險。無法確實判斷是食用菇的蘑菇,請不要採、不要吃、不要販售,也不要送給別人。」
: 推 NicoNeco: 難道AI公司不用負責嗎(震怒 11/22 15:54
: 推 shadowblade: 絕大部分普通民眾(我是很想用另個講法但大概會出事) 11/22 16:35
: → shadowblade: 根本不具備去質疑跟思考一項未知事物的能力 11/22 16:35
: 推 mouscat: 那類人根本不會 也沒有興趣了解AI跟網路搜尋結果的差別 11/22 16:36
: → mouscat: 他們只知道丟input進去 反正有output就能當作正確知識了 11/22 16:36
: 推 intela03252: 他的問題是ai講就信,ai講的正確與否其實不是癥結點 11/22 18:46
: 推 hiphopboy7: 就很多人對ai有誤解 以為ai不會犯錯 11/22 18:51
這個是一個很有意思的問題。
實際上我覺得美國可能之後會出現對應的法規來保護使用者
提供LLM的服務的公司肯定希望大家把這些AI想得超神超好用,
但撇開公司的利己心態,我們來看一下一般社會上人類的行動趨性。
(1) 很多人都同意「但是ChatGPT/Gemini並不是什麼專家,而是聊天機器人」,
所以認定「AI可以給你個不錯的參考,但仍要經過驗證你才能確信敘述的真偽」
這是正論,是我們標準教育理念會得出這個結果。
你去學校問學生,他們應該也會認同這個結論
(2) 但是我們也得承認一個普遍的事實:
「驗證一個敘述的真偽」的學養門檻其實滿高的
絕大部分人除非很有必要,
不然其實比較偏向「訴諸權威」這種委任的方式。
最近的LLM,在回答很多問題上,給予令人滿意的答覆的機率其實很高。
真的給出些低能回答的情況算是比較少的
如果今天採用 (1) 的規則,對於學養較差的大多數人,
等於是為了少數不良結果,
放棄使用一個大多數情況都正確的優良工具。
而且還只能眼睜睜看著自己跟學養較佳的人,
因為LLM的發達而拉大雙方之間的差距
所以絕大部分人的策略會是「盲信LLM所述說的結果」。
至於有人如果要用(1)的論點去挑戰這盲信行為,排擠他就好了 :)
雖然這是不理想的情況,但其實相當普遍
我是覺得這會有法規去管理啦
「放消費者以利己心態的去碰壁」這個在美國相對容易被干涉
現在是人調教AI 以後就反過來囉不對 已經是現在進行式了
作者:
S2357828 (方丈為人很小心眼的)
2025-11-22 19:29:00"不會GOOGLE嗎?"→"不會問AI嗎?"
再過幾年調教,搞不好AI就能變成權威了比學習應該沒有人比得上AI
作者:
probsk (紅墨水)
2025-11-22 20:03:00AI的學習是對的也學錯的也學
作者: MaxMillian 2025-11-22 20:12:00
AI是無菇的
低能回答其實很多好嗎 只是多數人沒發現答案很低能多數人對答案很滿意 可不代表答案不低能
作者:
spfy (spfy)
2025-11-22 20:46:00你問的問題非常關鍵 你的觀察很精確 你提出了重要的問題都吹得我不好意思了 去讀個MIT好了