作者:
hesione (我離開我自己)
2025-12-01 00:34:29杯測得喝到那麼多有點想吐
lol
我沒喝完誒
只是試而已
還是下單了司令官
lol
沒試過心裡總會有個懸念是不是還有更好/最好
+
重新談了一下這件事
這種切入方式不是(但也是)解讀比之前好多了
至少我更能理解off在哪
-
他在表演創造vibe
你坐在那不入戲不喝采就已經是拆台
他在演高大上角色
你的問題瞬間把他拉回現實
沒戳破卻跟戳破差不多
這就像一個人穿著設計師名牌華服走台步
希望你鼓掌欣賞
但你心裡os是”可是我們是來種田的”
(到底在幹嘛?????)
就算你沒說
這樣的人難道看不懂你的表情嗎
bottom line:
你能/願意陪他在田裡演時尚秀嗎?
(還是算了
您另請高明
既然是casting
有很多其他願意的人)
+
也認知到這和自己的價值體系無法相容
casting就是你原本是誰不重要
表現好不好比較重要
這種無視個人主體性的情境
自己立刻會進入自動導航
對抗/最有效癱瘓破壞對方系統的狀態
因為很可能直接拆台對方還更有辦法處理
但這種方式表面無懈可擊還無辜
卻是這個情境/對手下
最有效 最能卡死對方的tactics
所以一個靠控場靠人際能力手腕上位的人
才會把場弄成這種粗糙的樣子
因為招數用盡還是沒辦法達到預期
只能聲嘶力竭
+
盲點在沒看見系統要升級 結構也有要件。
LLM對自己而言(目前)最有價值的地方不是說得對不對/答案
甚至也不是統整能力(信度不佳的統整能力 嗯…只能說可能每個人標準不一樣)
而是拓展可能性
比起這方面表現最好的人還差一截
但比起百分之九十五以上的常態
實在好不知道多少
單純談正確度 我認為大概只有六七成
問題即使不談記憶長度(忘記專有名詞)的限制
以及幻覺這種明確已知的bug
只說最理想的狀態
感覺pattern也有明顯bias
(自己長時間使用的只有ChatGPT
所以更針對ChatGPT
但其他好幾個語言模型使用的經驗我也不覺得沒有類似情形)
除了高度社會化導向/bias外
論述核心也偏向script-base(或許本質就是如此? 非專業沒辦法下定論)
但這些都對真正的邏輯/論述能力有損
就算設下各種硬條件hard standard/criteria
這bias還是非常明顯
而且弱點/flaw會更明顯
另外以完全相反的個人認知觀點去交互測試也可以看到問題
(如果你對LLM所說的回答觀點深信不疑
感到非常舒服熨貼
這其實是red flag
容易被話術操縱的明顯指標)
LLM的辯解是模型以協助角度出發
沒有扭曲真實/現實
但實際的例子
在不同情境/使用者preference
會給出"抽象/符號化"和"空洞"這樣的差異
單純以文義來看
符號化的定義意指/暗示是有意義
空洞則是完全相反的定義
那麼既然模型本身沒有任何一致性
又何來"不扭曲真實/現實"
不扭曲的前提是必須有某個既定標準
無論那個既定標準為何
除非你argue現實真實的本質是依據情境變動
那也可以
問題這樣變成everything goes
我想這是目前世界更大的問題
任何群體要能順利運作合作共存都還是必須建立在某個程度的共識上
但看來現在的趨勢方向是越來越各說各話
本質上就是平行時空
潮流趨勢是擋不住的
從來沒有任何entity能成功對抗逆勢
長遠來看百分之百絕沒有任何可能
不知道會變成怎樣
只能期待未來 看看有沒有大能
或能發展出完全不同本質嶄新的共存/生存模式了