Re: [魯蛇] 從AI訓練思維來看遊戲平衡這件事

作者: ddavid (謊言接線生)   2023-05-25 17:08:49
※ 引述《PosetMage (AI魔法師公會長老)》之銘言:
: → Mchord: generative model也是BP訓練喔 04/14 12:26
: → Mchord: 如何找得到的metric去定義strategy space才是問題 04/14 12:27
: → ddavid: 製作團隊不是比玩家難找到平衡,而是不值得花費那個成本 04/16 16:39
: → ddavid: 在處理平衡問題前,最先要理解的是當你系統有一定的複雜性 04/16 16:40
: → ddavid: 後基本上就不用考慮可以完美平衡了 04/16 16:40
: → ddavid: 因為做不到,玩家也未必需要 04/16 16:41
: 玩家未必需要那為甚麼MTG需要禁卡?
: RTS不需要平衡的話 那bz在nerf甚麼? 放著就好
你先思考一下,MTG 或 RTS 做完他所謂的平衡後,遊戲有平衡了嗎?
沒有,他們做到的平衡只到避免極少數套路屠殺為止,只要環境可以保有多種策
略就好,但所謂的「多種策略」事實上相對於整個遊戲的元素仍然是少數壟斷。
例如 MTG 的賽場上仍然是特定幾副套牌的壟斷,但只要沒有極端到只剩下一兩
種套牌可以存活、沒有極端到某張除了地牌以外的牌是所有套牌都得放的情況,WotC
就不會再進一步動手封禁了。
LoL 角色那麼多,做得到角色平衡嗎?沒有,他們的做法是輪流讓角色(特別是
好賣錢的新角色)出來透氣,實際上仍然有差距極大的強勢弱勢角色之分,但只要做
到賽場上不會只剩下唯一選擇就已經可以接受了。甚至有時還真的有超強的唯一選擇
,但他們還額外設置了 ban角制度來解決。
: → ddavid: 其他有些我以前本版老文章有聊到XD #1CGrc99x 04/16 16:41
: → ddavid: 至於你講 AI 一堆似是而非的內容,就不一一談了……XD 04/16 16:44
: 你的文章問題是沒有定義什麼是完美的平衡(也沒定義平衡) 反而在用烏賊戰術打模糊戰
:
: 你的文章說玩家算不完 算不完又怎樣 用期望和機率算就好
:
: 很顯然你對現代AI完全沒有概念 ex: 撲克AI、麻將AI都是在打機率而不是傳統決策展開
GTO 是不是奠基於決策展開計算的?AlphaGo 不用展開決策樹?不管是 GTO 或
是剝削策略都是奠基於決策展開計算出來的機率期望值,會把機率跟決策分開認為是
兩件事,很顯然我覺得你要對現代 AI 跟打德撲都重新了解一下。這根本就是相關的
事情。
: 我在這篇就是在定義平衡是 "AI探訪過後的Strategy Sapce"
: → ddavid: 老實說類神經網路已經可以用相對便宜價格建立到一個程度時 04/16 16:46
: 現在神經網路多半是拿來找方法 ex:AI下棋 AI打星海
:
: 都不是拿AI來調整數值做平衡
:
: 我在討論的是用AI做平衡
我已經說了沒人這麼做就是因為價值很低:
1. 可能遊戲根本不需要那麼平衡,甚至有的遊戲本來就是需要有一點動態的不平衡
變化來維持。
例如,LoL 的新英雄強勢期。
2. 你在做決策訓練的過程中,事實上大多數情況可以同時處理到平衡問題。
例如,圍棋 AI 從頭到尾都只是訓練最佳化下棋的策略,但藉由其結果,卻也同
時得到人類對局確實以黑貼六目半是當前最平衡的選擇(雖然白略優)。
因為以上兩個主要理由,幾乎足以涵蓋大多數案例,所以相對少有公司直接投資
在直接用 AI 做平衡上。當然學術上往這個方向做也沒什麼問題,但要做到分析平衡
能遠比用 2 順便處理到還成本低廉,然後該產品又非常需要這麼平衡的用例是真的
不多。
所以你要說我打模糊仗,那也可以,因為整個業界都在打這個模糊仗XD
不過我是從根本上想質疑你所謂「找發散」這種概念啦,我很鼓勵你做個 toy
project 來展示一下所謂 找發散 => 做平衡 的因果,不然恕我想像不到你的思路
XD。我甚至對於你「找發散」的數學模型都非常好奇,請務必指教一下。
: → ddavid: ,基因演算法這種口頭上演化講得很有噱頭,實質上其實還是 04/16 16:47
: → ddavid: 一種搜尋演算法的東西能使用的範圍就已經極度減少了 04/16 16:48
: 我在提就是Backpropagation只能找收斂而非找發散
:
: 我本身就是在做AI的(使用演算法到硬體指令做晶片加速都有) 如果你懂AI 歡迎討論^^
: ※ 編輯: PosetMage (60.115.80.231 日本), 04/17/2023 14:11:30
: 推 cutearia: GA的問題一樣是後期收斂時大部分染色體解都相同,不覺 04/25 00:04
: → cutearia: 得效果會比類神經網路好。怎麼把你說的strategy space 04/25 00:04
: → cutearia: 大小轉換成reward/fitness來訓練可能會有比較直接的效 04/25 00:04
: → cutearia: 果 04/25 00:04
GA 的本質不脫上一代 AI 的搜尋方式,我是不會期待它比起深度學習有普遍性
的更佳表現啦。GA 最大的缺點基本還是在於並沒有嘗試整合 pattern,在學習規模
相同的情況下,想訓練出並儲存等量且差異性的學習結果會比深度學習 Cost 更高。

Links booklink

Contact Us: admin [ a t ] ucptt.com