作者:
PosetMage (AI魔法師公會長老)
2023-05-26 00:30:25※ 引述《ddavid (謊言接線生)》之銘言:
: 你先思考一下,MTG 或 RTS 做完他所謂的平衡後,遊戲有平衡了嗎?
: 沒有,他們做到的平衡只到避免極少數套路屠殺為止,只要環境可以保有多種策
: 略就好,但所謂的「多種策略」事實上相對於整個遊戲的元素仍然是少數壟斷。
: 例如 MTG 的賽場上仍然是特定幾副套牌的壟斷,但只要沒有極端到只剩下一兩
: 種套牌可以存活、沒有極端到某張除了地牌以外的牌是所有套牌都得放的情況,WotC
: 就不會再進一步動手封禁了。
: LoL 角色那麼多,做得到角色平衡嗎?沒有,他們的做法是輪流讓角色(特別是
: 好賣錢的新角色)出來透氣,實際上仍然有差距極大的強勢弱勢角色之分,但只要做
: 到賽場上不會只剩下唯一選擇就已經可以接受了。甚至有時還真的有超強的唯一選擇
: ,但他們還額外設置了 ban角制度來解決。
這個就是在說明目前人工平衡很爛 所以我才要討論用AI來嘗試平衡
: GTO 是不是奠基於決策展開計算的?AlphaGo 不用展開決策樹?不管是 GTO 或
: 是剝削策略都是奠基於決策展開計算出來的機率期望值,會把機率跟決策分開認為是
: 兩件事,很顯然我覺得你要對現代 AI 跟打德撲都重新了解一下。這根本就是相關的
: 事情。
GTO在打的是範圍 也就盲注翻牌轉牌河牌 算Nash均衡
決策樹不是GTO策略本身 那只是輔助人類看的視覺化工具
你決策樹展開是要展荷官手上還沒打開的那一疊牌嗎? GTO跟決策樹無關自己去了解
: 我已經說了沒人這麼做就是因為價值很低:
價值低跟好不好是兩回事 alphago出來之前也是一堆人說AI下棋沒價值
實際上就是AI出來之後屌虐人類策略
: 1. 可能遊戲根本不需要那麼平衡,甚至有的遊戲本來就是需要有一點動態的不平衡
: 變化來維持。
: 例如,LoL 的新英雄強勢期。
: 2. 你在做決策訓練的過程中,事實上大多數情況可以同時處理到平衡問題。
: 例如,圍棋 AI 從頭到尾都只是訓練最佳化下棋的策略,但藉由其結果,卻也同
: 時得到人類對局確實以黑貼六目半是當前最平衡的選擇(雖然白略優)。
: 因為以上兩個主要理由,幾乎足以涵蓋大多數案例,所以相對少有公司直接投資
: 在直接用 AI 做平衡上。當然學術上往這個方向做也沒什麼問題,但要做到分析平衡
: 能遠比用 2 順便處理到還成本低廉,然後該產品又非常需要這麼平衡的用例是真的
: 不多。
: 所以你要說我打模糊仗,那也可以,因為整個業界都在打這個模糊仗XD
: 不過我是從根本上想質疑你所謂「找發散」這種概念啦,我很鼓勵你做個 toy
: project 來展示一下所謂 找發散 => 做平衡 的因果,不然恕我想像不到你的思路
: XD。我甚至對於你「找發散」的數學模型都非常好奇,請務必指教一下。
: GA 的本質不脫上一代 AI 的搜尋方式,我是不會期待它比起深度學習有普遍性
: 的更佳表現啦。GA 最大的缺點基本還是在於並沒有嘗試整合 pattern,在學習規模
: 相同的情況下,想訓練出並儲存等量且差異性的學習結果會比深度學習 Cost 更高。
就如同我前面說的 阿法狗出來之前說AI下棋沒價值
狗出來之後人類換說不完全訊息AI不會做 撲克打下來之後人類換說AI不會繪畫音樂
最近聽到的是AI寫程式沒價值 這種話聽太多了 這個不行那個也不行話人人都會講
用什麼方式完成我都可以接受 反正人類就是做不好
我在說的只是嘗試於找到一條可以用AI做平衡的理論推演
你能提出另一個用AI做平衡的方式我也歡迎
作者:
LayerZ (無法如願)
2023-05-26 02:57:00抱歉忍不住
作者:
WJAider (Aider)
2023-05-26 03:00:00反過來說,AI 這個也可以,AI 那個也可以的話人人都會講
作者:
LayerZ (無法如願)
2023-05-26 03:02:00不打算抨擊你,但是你想討論的不是平衡而是AI至上
作者:
ddavid (謊言接線生)
2023-05-26 12:39:00講半天還是沒看到數學模型或至少 cost 分析,我還是等有至少 toy project 成果再討論比較實際講 AI 至上論我其實沒啥問題,問題大的地方在找解本來就也是 AI,有什麼理論基礎說找平衡 AI 表現就會比較優秀,也沒看到特別是還提出什麼找發散,這根本與現今所有主流 AI 概念都是相反的,不管找解找異質找多樣性,現今 AI 始終是用收斂方式,找發散的數學模型到底長怎樣我是真的願聞其詳而且講來講去居然丟一個 GA 出來,明明 GA 正是上一代 AI裡面找收斂解的經典之一(不是因為它同時找多組就叫做找發散了),到底怎麼冒出找發散概念的要是提個 GAN 還比較有譜,雖然跟找發散還是八竿子打不在一起另外沒價值那段根本是你把話塞別人嘴裡,事實始終是做得不夠強就沒價值,強了當然有價值。那要強需要什麼,有理論基礎、有實作成果、有重現性。而不是隨便來個思考轉彎就叫做有價值,遊戲界最不缺的就是點子。
BZ例子重點不在平衡 而是被砍的玩家不高興發文造成玩家不滿 可以求助AI改善語氣
作者:
ddavid (謊言接線生)
2023-05-31 19:09:00我真的覺得你要好好重新思考一下你口中的找發散到底是什麼東西……GA 用於找收斂,不代表把參數反向操作就會「找發散」,說到頭來你所謂找發散到底數學模型是什麼東西?你讓結果發散那停止條件是什麼?你怎麼證明你所謂的發散結果比隨機更發散或更平衡?要是連個 objective function 都寫不出來,那你已經是在開創非現行機器學習的新領域了,恭喜你成為先驅並期待你的實作與應用還拿愛因斯坦來比,理論物理學家雖然不一定做實驗證明,但是會提出嚴謹的理論模型,而且根據那個模型計算的結果還要能夠不違反過去所有的相關實驗結果好嗎?
作者:
WJAider (Aider)
2023-05-31 20:33:00有臉拿愛因斯坦跟自己抬槓比,相對論是論壇聊出來的?先理解論壇抬槓跟論文的差距再找比喻比較好
作者:
ddavid (謊言接線生)
2023-06-02 19:11:00無視停止條件,我很難相信你在做 AI 耶XD你可以回去複習一下你自己提的 GA 一樣需要 Stopping Conditions,不然它怎麼判斷演化足夠好可以給你結果了至於 AlphaGo 為什麼還有機會持續訓練提升實力,原因也很簡單,你可以先猜看看。但即便是這樣,AlphaGo 還是要收斂出 李世石版、Master版以及 AlphaZero 這些特定版本。理由也很淺顯易懂XD