[魯蛇] 從AI訓練思維來看遊戲平衡這件事

作者: PosetMage (AI魔法師公會長老)   2023-04-11 20:20:45
如果要訓練AI當策略遊戲的平衡還有拿來當AI的思維:
先分類型 規則多的或者數值多的
規則多的基本上必須以decision tree為主的方式去設計AI
數值多的話則很好套用hidden layer的概念
當然是建議規則類型能減少就減少,畢竟越多規則會造成複雜的程式碼
魔法風雲會就是規則多 然後多到還有官方出被自己方官方禁卡的智障行為
寫成程式當然也是超級麻煩
訓練過程可以定義方向會方便很多,比如戰棋或者卡牌或者RTS有"勝負"
因為可以定義勝負了,所以可以採用強化學習(Reinforcement learning)去讓AI左右互搏
學到一定程度之後,檢查"strategy space" 和 "strategic depth"
如果Strategy Space太小就是平衡太差,
好的平衡就是盡可能擴大Strategy Space 從這個定義可以看出訓練上的困難,
因為AI訓練是要找一個最好可以收斂的方向,比如勝率最終雙方會趨於50:50
(一般來說通常有先發優勢,可能是55:45,舉例來說,麻將就是25:25:25:25,四個高手
一起打就是平均值在平手。)
問題是我們想要並不是一個收斂的結果,而是盡可能發散的Strategy Space。
反向傳播(Backpropagation)訓練AI是只能往收斂走,無法往發散走的。
從AI概念可以推論出真把平衡做好的很難
玩遊戲也可以看出這種天生的非對稱性:
策略遊戲玩家經常可以找到較好的策略,甚至因為某幾招特別好用,大家都用同一招了
策略遊戲製作團隊卻難以找到好的平衡,
比如Blizzard遇到平衡問題,就是先nerf再說"我們覺得這樣很cool。"
作者: MrFishing (胡不歸)   2023-04-12 10:21:00
推薦這位來自日本的魔法師大大(欸?
作者: tsrn46336686 (hahapointishere)   2023-04-12 22:02:00
謝謝大大分享 但感覺好像沒什麼重點@@
作者: strangechu (電冰箱)   2023-04-13 11:04:00
這筆記文體不知道你重點是什麼 總之想表達平衡很難?
作者: Mchord (Mchord)   2023-04-14 12:26:00
generative model也是BP訓練喔如何找得到的metric去定義strategy space才是問題
作者: ddavid (謊言接線生)   2023-04-16 16:39:00
製作團隊不是比玩家難找到平衡,而是不值得花費那個成本在處理平衡問題前,最先要理解的是當你系統有一定的複雜性後基本上就不用考慮可以完美平衡了因為做不到,玩家也未必需要其他有些我以前本版老文章有聊到XD #1CGrc99x至於你講 AI 一堆似是而非的內容,就不一一談了……XD老實說類神經網路已經可以用相對便宜價格建立到一個程度時,基因演算法這種口頭上演化講得很有噱頭,實質上其實還是一種搜尋演算法的東西能使用的範圍就已經極度減少了
作者: cutearia (らちけん)   2023-04-25 00:04:00
GA的問題一樣是後期收斂時大部分染色體解都相同,不覺得效果會比類神經網路好。怎麼把你說的strategy space大小轉換成reward/fitness來訓練可能會有比較直接的效果

Links booklink

Contact Us: admin [ a t ] ucptt.com