[問題] 如何以深度學習完成客製化傲嬌?

作者: zxcmoney (修司)   2019-10-22 15:45:28
假設我想訓練AI完成一個客製化傲嬌性格反應
其流程大致如下
1.確認好一個目標 (玩家)
2.確認好所需參數,給予不同參數權重。
何時傲? 何時嬌? 等時機判斷。
3.導入數據
4.調整數據
有些數據最終能提高玩家的好感,有些則否,
藉此過程AI會調整参數權重,影響好感的提高,不影響的就會調低。
5.最終AI慢慢試錯學習不同的權重組合,找到最終能得到最高好感的比例。
甚至這個比例會是動態,會隨著玩家偏好改變持續調整。
問題在於
1.傲嬌模型的建立
一個理想的傲嬌模型,除了傲.嬌之類攏統的概念外,
還需要參數與權重,但到底有哪些需要參數?
這需要專家的意見。
2.回饋的取得
不同於遊戲分數可以直接取得,玩家好感也是模糊的資訊,
如何取的玩家的最終好感?
對此板友是否能提供一些意見?
作者: soulgem (あたしって、ほんとバカ)   2019-10-22 15:47:00
(先能定義好傲跟嬌是什麼再來談)
作者: roywow (BeeeeeZ)   2019-10-22 15:48:00
UBS孔就是啊 不插他3次都不給進去
作者: bbb654123 (ridiculus)   2019-10-22 15:50:00
二次元參數湊出來的二次元老婆 用現成的二次元就好了reinforcement learning 參考一下你也要有那個電腦去跑那個參數 你的資訊量太大了
作者: ckniening (☞罌粟小子☜)   2019-10-22 15:51:00
?_?
作者: Wardyal (Wardyal)   2019-10-22 15:57:00
假如你訂好reward說不定真的可以靠reinforcement跑出一個理想中的傲嬌
作者: jonathan793 (pusheen cat)   2019-10-22 15:57:00
你這個要作應該要弄成推薦系統 每個人對同個角色好感度不同
作者: bbb654123 (ridiculus)   2019-10-22 16:03:00
回樓上 如果是樓主開發只會有樓主覺得是傲嬌類的參考資料,到頭來都是生出資料來源的傲嬌而已,給自訂也差不多
作者: Ericz7000 (Ericz7000nolan)   2019-10-22 16:03:00
正要說RL
作者: OldYuanshen (聊齋異說)   2019-10-22 16:13:00
重點是臉吧
作者: king498c (白猿君)   2019-10-22 17:32:00
樓上你說到重點了
作者: mistel (Mistel)   2019-10-22 18:21:00
不 重點是介面吧 你能想像只有終端的傲嬌嗎?

Links booklink

Contact Us: admin [ a t ] ucptt.com