[新聞] 擊敗星海爭霸職業玩家的AlphaStar是在作弊?

作者: zkow (逍遙山水憶秋年)   2019-01-28 15:53:15
“擊敗星海爭霸II職業玩家”的 AlphaStar是在作弊?
機器之心 · 2小時前
DeepMind 擊敗人類職業玩家的方式與他們聲稱的 AI 使命,以及所聲稱的『正確』方式
完全相反。
編者按:本文來自微信公眾號“機器之心”(ID:almosthuman2014),作者 機器之心編
輯部。36氪經授權轉載。
DeepMind 的人工智慧 AlphaStar 一戰成名,擊敗兩名人類職業選手。掌聲和歡呼之餘,
它也引起了一些質疑。
在前天 DeepMind 舉辦的 AMA 中,AlphaStar 專案領導者 Oriol Vinyals 和 David
Silver、職業玩家 LiquidTLO 與 LiquidMaNa 回答了一些疑問。不過困惑依然存在
近日,Aleksi Pietikäinen 在 Medium 上發表了文章,提出了幾點疑問,在 Twitter
和 Reddit 上引起了極大的關注:
AlphaStar 使用了超人的速度,達到了超人的準確度。
DeepMind 稱限制了 AI 的操作速度,不至於人類無法企及。但他們並未做到,且大
概率意識到自己沒做到。
AlphaStar 擁有超人速度的原因可能是忘了考慮人類的無效點擊。作者懷疑
DeepMind 想限制它使它更像人類,但是卻沒有做到。我們需要一些時間弄清楚這一點,
不過這也正是作者寫本文的原因。
前谷歌大腦科學家 Denny Britz 也轉載了此文章並在 Twitter 上表示:「有時候誠實和
謙虛一點,就像『目前已經做得不錯了,但我們還沒有達到最優,還有很長的路要走。』
而不是『看!那職業選手被擊敗了!!』,這樣才能走得更遠。
最讓我煩惱的是,雖然 AlphaStar 在很多方面都有令人驚訝的結果,但其聲稱『限制在
人類的操作水準』的解釋讓整個事件變得更像是在做公關,對於不熟悉機器學習和星海爭
霸的人來說這就是誤導。」
讓我們看看 AlphaStar 究竟哪裡「作弊」了,以下為機器之心對該文章的編譯介紹:
首先,我必須聲明我是門外漢。最近我一直追蹤 AI 發展和星海爭霸 2,不過我在這兩個
領域都不是專家。如有錯漏,請見諒。其次,AlphaStar 確實是一項巨大成就,我很期待
看到它以後的發展。
AlphaStar 的超人速度
AlphaStar 團隊領導 David Silver:「AlphaStar 不能比人類選手反應速度快,也不會
比人類選手執行更多點擊。」
2018 年,來自芬蘭的蟲族選手「Serral」Joona Sotala 制霸星海 2。他是目前的世界冠
軍,且他在當年的九場大型賽事中取得了七次冠軍,在星海 2 歷史上是史無前例的選手
。他的操作速度非常快,可能是世界上最快的星海 2 選手。
在 WCS2018 上,Serral 的毒爆蟲讓局勢逆轉。
在比賽中,我們可以看到 Serral 的 APM(actions per minute)。APM 基本上表示選手
點擊滑鼠和鍵盤的速度。Serral 無法長時間保持 500 APM。視頻中有一次 800 APM 的爆
發,但只持續了一秒,而且很可能是因為無效點擊。
世界上速度最快的人類選手能夠保持 500 APM 已經很不錯了,而 AlphaStar 一度飆到
1500+。這種非人類的 1000+ APM 的速度竟然持續了 5 秒,而且都是有意義的動作。
一分鐘 1500 個動作意味著一秒 25 個動作。人類是無法做到的。我還要提醒大家,在星
海 2 這樣的遊戲中,5 秒是很長一段時間,尤其是在大戰的開始。
如果比賽前 5 秒的超人執行速度使 AI 占了上風,那麼它以大幅領先優勢獲取勝利可能
是由於雪球效應。
一位解說指出平均 APM 仍是可接受的,但很明顯這種持續時間並非人類所能為。
AlphaStar 的無效點擊、APM 和外科手術般的精准打擊
大部分人類都會出現無效點擊。無意義的點擊並沒有什麼用。例如,人類選手在移動軍隊
時,可能會點擊目的地不止一次。這有什麼作用呢?並沒有。軍隊不會因為你多點擊了幾
下就走得更快。那麼人類為什麼還要多點擊呢?原因如下:
1. 無效點擊是人類想要加快操作速度的自然結果。
2. 幫助活躍手指肌肉。
我們前面說過 Serral 最令人震驚的不是他的速度而是準確度。Serral 不只是具備高
APM,還具備非常高的 effective-APM(下文中簡略為 EAPM),即僅將有效動作計算在
內的 APM。
一位前職業玩家在看到 Serral 的 EAPM 後發推表示震驚:
Serral 的 EAPM 是 344,這實際上已經是前所未有了。APM 和 EAPM 的區別也涉及
AlphaStar。如果 AlphaStar 沒有無效動作,這是不是說明它的巔峰 EAPM 等於巔峰
APM?這樣的話 1000+的爆發更加非人類了。
我們還需要考慮 AlphaStar 具備完美的準確率,它的性能好到「荒謬」的程度。它總能
點擊到想去的地方,而人類會有誤點擊。AlphaStar 可能不會一直使用巔峰狀態,但在關
鍵時刻,它的速度是世界最快選手的 4 倍,而準確率更是人類專業玩家想都不敢想的。
星海 2 中存在一個共識:AlphaStar 的執行序列人類無法複製。其速度和準確率突破了
人類現有極限。
AlphaStar 只能執行人類選手可以複製的動作?David Silver 不認同這種看法。
正確做事 vs 快速做事
AlphaStar 的首席設計工程師 Oriol Vinyals:我們正在努力構建擁有人類驚人學習能力
的智慧系統,因此確實需要讓我們的系統以盡可能「像人類一樣」的方式學習。
例如,通過非常高的 APM,將遊戲推向極限可能聽起來很酷,但這並不能真正幫助我們衡
量智慧體的能力和進步,使得基準測試毫無用處。
為什麼 DeepMind 想限制智慧體像人類一樣玩遊戲?為什麼不讓它放飛自我?原因是星海
爭霸 2 是一個可以通過完美操作攻破的遊戲。
在這個 2011 年的視頻(https://www.youtube.com/watch?v=IKVFZ28ybQs)中,AI 攻擊
一組坦克,其中一些小狗實現了完美的微操。例如,在受到坦克攻擊時讓周圍的小狗都躲
開。
通常情況下,小狗不能對坦克做出太大 傷害,但由於 AI 完美的微操,它們變得更加致
命,能夠以最小的損失摧毀坦克。
當單元控制足夠好時,AI 甚至不需要學習策略。而在沒有這種微操時,100 只小狗沖進
20 架坦克中只能摧毀兩架坦克。
“擊敗星海爭霸II職業玩家”的 AlphaStar是在作弊?
並不一定對創建可以簡單擊敗星海爭霸專業玩家的 AI 感興趣,而是希望將這個項目作為
推進整個 AI 研究的墊腳石。
雖然這個研究項目的重要成員聲稱具有人類極限限制,但事實上智慧體非常明顯地打破了
這些限制,尤其是當它利用超人速度的操作來贏得遊戲時,這是完全無法讓人滿意的。
AlphaStar 能夠在單位控制方面超越人類玩家,當遊戲開發者仔細平衡遊戲時,肯定不會
去考慮這一點。這種非人類級別的控制可以模糊人工智慧學習的任何戰略思維評估。
它甚至可以使戰略思維變得完全沒有必要。這與陷入局部極大值不同。當 AI 以非人類級
別的速度和準確率玩遊戲時,濫用卓越的控制能力很可能變成了玩遊戲時的最佳策略,這
聽起來有些令人失望。
這是專業人士在以 1-5 的比分輸掉比賽之後所說的 AI 優點和缺點:
MaNa:它最強的地方顯然是單位控制。在雙方兵力數量相當的情況下,人工智慧贏得了所
有比賽。在僅有的幾場比賽中我們能夠看到的缺點是它對於技術的頑固態度。
AlphaStar 有信心贏得戰術上的勝利,卻幾乎沒有做任何其它事情,最終在現場比賽中也
沒有獲得勝利。我沒有看到太多決策的跡象,所以我說人工智慧是在靠操作獲得勝利。
在 DeepMind 的 Replay 講解和現場比賽之後,星海爭霸玩家群體幾乎一致認為
AlphaStar 幾乎完全是因為超人的速度、反應時間和準確性而獲得優勢的。
與之對抗的職業選手似乎也同意。有一個 DeepMind 團隊的成員在職業玩家測試它之前與
AlphaStar 進行了比賽。他估計也同意這種觀點。
David Silver 和 Oriol Vinyal 不斷重複聲稱 AlphaStar 如何能夠完成人類可以做的事
情,但正如我們已經看到的那樣,這根本不是真的。
在這個視頻中關於「AlphaStar 如何能夠完成人類可以做的事情」的描述非常粗略。
為什麼 DeepMind 允許 AlphaStar 擁有超人的操作能力
現在讓我們回顧一下這篇文章的主要觀點:
我們知道了 APM、EAPM 和無效點擊等概念;
我們對人類玩家操作能力的上限有一個粗略的瞭解;
我們知道了 AlphaStar 的遊戲玩法與開發人員聲稱允許執行的遊戲玩法完全矛盾;
我們的一個共識是 AlphaStar 通過超人的控制能力贏得了比賽,甚至不需要卓越的
戰略思維;
我們知道,DeepMind 的目標不是創建一個只能微操的 AI,或者以從未打算過的方式
濫用技術;
令人難以置信的是,在 DeepMind 的星海爭霸 AI 團隊中沒有人質疑爆發的 1500+
APM 是否對於人類而言可及。他們的研究人員可能比我更瞭解這個遊戲。他們正與擁有星
海爭霸系列 IP 的遊戲公司暴雪密切合作,使 AI 盡可能接近人類才符合他們的利益(參
見本文前面提到的 David Silver 和 Oriol Vinyals 的提到的前幾個要點和使命陳述)

這是我對事情真相的猜測:
1)在專案一開始,DeepMind 同意對 AlphaStar 施加嚴格的 APM 限制。因此 AI 不會在
演示中出現超人的操作速度。如果讓我來設計這些限制,可能包含如下幾項:
整場比賽的平均 APM;
在短時間內爆發的最大 APM。我認為每秒加上 4-6 次點擊是合理的。還記得
Serral 和他的 344 EAPM 超越了競爭對手?這還不到每秒 6 次點擊。與 MaNa 對戰的
AlphaStar 版本在連續的時間段內每秒可以執行 25 次點擊。這比人類可以做到的最快
無效點擊速度要快得多,我認為原始限制是不允許這樣做的。
點擊之間的最短間隔。即使 AI 的速度爆發被限制,它仍然可以在當前所處時間段的
某個時刻執行幾乎暫態的動作並且仍然以非人類的方式執行。人類顯然無法做到這一點。
有些人會主張還可以在準確率上添加隨機性來進行限制,但我懷疑這會過多地阻礙訓練的
速度。
2)接下來,DeepMind 會下載數以千計高排名的業餘遊戲視頻並開始模仿學習。在這個階
段,智慧體只是試圖模仿人類在遊戲中所做的事情。
3)智慧體採用無效點擊的行為。這很可能是因為人類玩家在遊戲過程中使用了這種點擊
行為。幾乎可以肯定,這是人類執行的最單調重複的行為模式,因此很可能深深紮根于智
慧體的行為中。
4)AlphaStar 爆發的最大 APM 受限於人類進行無效點擊的速度。由於 AlphaStar 執行
的大多數操作都是無效點擊,因此沒有足夠的 APM 可用於在戰鬥中進行實驗。如果智慧
體未進行實驗,則無法學習。以下是其中一位開發人員昨天在 AMA 上所說的話:
AlphaStar 的首席設計工程師 Oriol Vinyals:訓練人工智慧玩低 APM 非常有趣。在早
期,我們讓智慧體以非常低的 APM 進行訓練,但它們根本沒有微操。
5)為了加速開發,他們改變 APM 限制以允許高速爆發。以下是 AlphaStar 在演示中使
用的 APM 限制:
AlphaStar 的首席設計工程師 Oriol Vinyals:尤其是,我們在 5 秒的時間段內設置的
最大 APM 為 600,在 15 秒內最大為 400,30 秒內最大為 320,在 60 秒內最大為 300
。如果智慧體在此期間執行更多的操作,我們會刪除/忽略這些操作。這些是根據人類統
計資料設置的。
這相當於通過統計數字作弊。乍一看,對星海不太瞭解的人可能會覺得這樣做很合理,但
它會允許我們之前討論的超人速度爆發以及超人滑鼠精度,這是不太合理的。
人類進行無效點擊的速度是有限的。最典型的無效點擊形式是對一個單位發出移動或攻擊
命令。這是通過用滑鼠點擊地圖某個位置來完成的。
請盡你最快的速度點擊滑鼠試試。智慧體學會了這種無效點擊。它不會點擊地太快,因為
它模仿的人類無法點擊太快。而能讓它達到超人速度的額外 APM 可以被認為是「自由的
」APM,它可以用於更多次嘗試。
6)自由的 APM 被用於在交戰中進行實驗。這種交互在訓練中經常發生。AlphaStar 開始
學習新的行為以帶來更好的結果,它開始擺脫經常發生的無效點擊。
7)如果智慧體學會了真正有用的動作,為什麼 DeepMind 不回到最初對 APM 更苛刻、更
人性化的限制呢?他們肯定意識到了其智慧體正在執行超人的動作。
星海社區一致認為 AlphaStar 擁有超人的微操技術。人類專家在 ama 中表示,
AlphaStar 的最大優勢不是其單位控制,而其最大的弱點也不是戰略思維。
DeepMind 團隊中玩星海的人肯定也是這麼想的,理由是因為智慧體偶爾還是會進行無效
點擊。
雖然在玩遊戲的大部分時間裡,它能直接執行有效動作,但它還是經常做無效點擊。這一
點在它與 MaNa 的比賽中很明顯,該智慧體在 800APM 上無意義地點擊移動命令。
儘管這完全沒必要,而且消耗了它的 APM 資源,但它仍不忘記這麼幹。無效點擊會在大
規模戰爭中對智慧體造成很大傷害,它的 APM 上限可能會被修改以使它在這些對抗中表
現良好。
不要在意這些細節?
現在你明白是怎麼回事兒了。我甚至懷疑人工智慧無法忘記它在模仿人類玩家過程中學習
到的無效點擊行為,因而 DeepMind 不得不修改 APM 上限以允許實驗進行。
這麼做的缺點就是人工智慧有了超越人類能力的操作次數,從而導致 AI 以超越人類的手
速,不用戰術戰略就能打敗人類。
我們對 APM 如此關心,是因為 DeepMind 擊敗人類職業玩家的方式與他們所希望的方式
,以及所聲稱的「正確」方式完全相反。而 DeepMind 放出的遊戲 APM 統計圖也讓我們
對此有所洞悉:
這種統計方式似乎是在誤導不熟悉星海爭霸 2 的人。它似乎在把 AlphaStar 的 APM 描
述為合理的。我們可以看看 MaNa 的資料,儘管他的 APM 均值比 AlphaStar 要高,但在
最高值上 AI 遠高於人類,更不用說在高 APM 時人類操作的有效性了。
請注意:MaNa 的峰值是 750,而 AlphaStar 高於 1500。想像一下,MaNa 的 750 包含
50% 的無效點擊,而 AlphaStar 的 EAPM 幾乎完美……
至於 TLO 的「逆天」手速,星海爭霸主播黃旭東和孫一峰在直播時認為他明顯使用了快
速鍵盤(通過特殊品牌的鍵盤熱鍵功能,設置某單個快速鍵/複合鍵代替多次滑鼠點擊)

快速鍵盤可以讓人類的 APM 達到不可理喻的高度,比如 15,000 多——但並不會提升你
的有效操作。
然而,你用快速鍵盤能做的唯一一件事就是無效施法。出於某些莫名的原因,TLO 在濫用
這個技術,這種操作的統計結果讓不熟悉星海爭霸的人看起來好像 AlphaStar 的 APM 是
在合理範圍之內的。
DeepMind 的介紹性博客並沒有提到 TLO 荒謬數字的原因,如果沒有解釋,這個數字就不
應該被列在圖中。
這簡直是在統計數字上作弊。
可以說有局限性,可以說潛力巨大
AlphaStar 星海爭霸 2 的人機大戰吸引了人工智慧領域裡很多專業人士的關注,它對於
AI 技術的發展會有什麼樣的啟示。比賽過後,Facebook 研究科學家田淵棟在知乎上表
示:
昨天晚上抽空看了一下 DM 的 demonstration 還有 live 的比賽。確實做得很好。
我星海水準很爛,星海 2 也玩得不多,相信大家已經看到了大量的遊戲評論,我就跳過
了。
整個系統和 AlphaGo 第一版很接近,都是先用監督學習學會一個相當不錯的策略,然後
用自對弈(self-play)加強。當然有兩個關鍵的不同點,其一是自對弈用的是
population-based 以防止掉進局部解(他們之前在 Quake 3 上也用到了)。
其二是在 network 裡面加了一些最近發表的神經網路模型,以加強 AI 對於遊戲全域和
歷史長程關聯性的建模能力(比如說用 transformer,比如說讓 AI 可以一下子看到全部
可見區域),這兩點對於不完全資訊遊戲來說是至關重要的。
因為不完全資訊遊戲只能通過點滴的歷史積累來估計出當前的狀態,尤其是對手的狀態,
多一點歷史記錄就能學得更好些,這個我們做過一些即時戰略遊戲(MiniRTS)的研究,
很有體會。
星海一個很大的問題是輸出的行動空間(action space)巨大無比,我記得他們在一開始
做的基線(baseline)演算法裡面用了 language model 輸出精確到單位的行動(
unit-level action),但在 DM 的 blog 裡面卻說每個時間節點上只有 10 到 26 種不
同的合法行動。
然後在他們的 demonstration 裡面「considered Build/Train」下面有 33 個輸出。這
些都讓人非常困惑。或許他們在監督學習的時候已經建立了一些子策略(比如說通過聚類
的方法),然後在訓練的時候直接調用這些子策略就行了。但具體細節不明,期待完整論
文出來。
另外,這次 AlphaStar 沒有用基於模型進行規劃的辦法,目前看起來是完全用經典的
off-policy actor-critic 加大量 CPU 硬來,就有這樣的效果。
關於 AlphaStar 輸掉的那局。實話說被簡單的空投戰術重複幾次給拖死了,讓人大跌眼
鏡。聯想到 OpenAI Five 對職業選手也輸了,主要還是應變能力不強,無法對新戰術新
模式及時建模。
圍棋因為遊戲規則和雙方資訊完全透明,下棋的任何一方都可以用蒙特卡羅樹搜索(MCTS
)對當前局面進行臨時建模和分析,但不完全資訊博弈因為得要估計對手情況就沒有那麼
簡單。
AlphaStar 目前似乎是無模型的(model-free,Reddit 上的解答確認了這一點)。我不
知道是不是在進行充分的訓練之後,純粹無模型(model-free)的方法可以完全達到樹搜
索的效果——但至少我們能看到在圍棋上。
就算是用相當好的模型比如說 OpenGo,要是每盤都不用搜索而只用策略網路的最大概率
值來落子,還是會經常犯錯。
所以說,若是在不完全資訊博弈裡面用上了基於模型(model-based)的方法,並且能夠
穩定地強於無模型(model-free)方法,那在演算法上會是一個比較大的突破。
所以其實深度強化學習還是有很多很多很多沒有解決的問題,你可以說它有很大局限性,
也可以說它潛力巨大。
在這之上,更難的一個問題是如何讓 AI 具有高層推理的能力。人對將來的預測是非常靈
活且極為穩定的,可能會想到一秒後,也可能會想到一年後,而且對新模式可以很快概括
總結並加以利用。
但真寫點演算法去模仿人的預測能力,就會出現各種各樣的問題,比如說對沒探索過的地
方過於自信,多次預測產生累計誤差等等。那麼到底什麼樣的預測模型是穩定有效且靈活
的,目前還是研究熱點,沒有一個統一的答案。
對應到星海上,人在全域戰略上的優化效率要遠遠高於 AlphaStar,比如說一句「造兩個
鳳凰去滅了那個來空投的棱鏡」,可能就頂 AlphaStar 自對弈幾天幾夜。
這個效率的差距(可能是指數級的)是否可以用大量計算資源去填補,會是和頂尖高手對
局勝敗的關鍵所在。
https://www.36kr.com/p/5174690
作者: evilkingsc (魔法企鵝)   2019-01-28 16:04:00
文長==未看先推
作者: Adonisy (堂本瓜一)   2019-01-28 16:09:00
AS自我學習的結論可能就是用操作吃死各位
作者: nissptt (niss)   2019-01-28 16:36:00
比方要把槍兵移到幾個兵營大小的距離外,或較遠的某處,圈好槍兵後,滑鼠指標移動過去目的地的路徑上(需要時間),會先點一次,這樣槍兵會先走位, 等滑鼠移到到目的地,勢必再點一次。這並非無效APM, 但人手就是必須多點擊,而AI應該是直接給座標就好。靠操作差異贏得比賽就是做壞了!
作者: dambosrx (333)   2019-01-28 16:53:00
借串請問一下 scboys有解說AI的相關比賽嗎 感謝~
作者: haohwang (haohwang)   2019-01-28 16:55:00
簡單說就是前輩高人跟主角說把境界壓到跟主角同水平,結果戰鬥中危及時卻爆出比主角更高階的操作水平。
作者: nissptt (niss)   2019-01-28 16:57:00
剛開始玩星海一的時候,團戰常還沒打起來,就有人掉線要重開,每次,其中一位打的較好的,晶礦就是採的比較多,原來他不只像大家從近點開始採,而且距離適合的,就會用三隻工兵輪採其中兩近點礦位,(或六採四)操作不過來時,才放去採遠礦位。要一直點,但並不需要特別技巧。後來大家都會了, 快攻尤其有用..... 但這類操作,實在不是該期待的事,這只是最佳化而已。
作者: itai   2019-01-28 17:43:00
@dambosrx 有解說的,當天解說,隔天再重點覆盤解說
作者: THKLuga (流河濤)   2019-01-28 19:05:00
AI操作不會失誤,那AI打人類最後的結論就是等人類操作失誤吧
作者: mrmowmow (mow)   2019-01-28 19:13:00
大家好像忘了一點,ai自己練的時候對面也是神操作,也就是在極限操作之下ai就是選擇這種戰略
作者: kira925 (1 2 3 4 疾風炭)   2019-01-28 19:34:00
單位交換比與操作是有關連性的 所以這種超乎尋常的高手速你就會得到與現實脫離的戰略所以前面講過很多次 DM很高興的認為自己解決問題但是答非所問 甚至你可能要懷疑這個方法是不是能得到轉兵還有應對對手的模型以為自己訓練出真的有在看對面做防守 但其實只是數據歸納出來什麼時間要擺幾隻兵去哪裡
作者: Butcherdon (Donald)   2019-01-28 19:43:00
笑死 給台階下不要 下次降速打到電競仔無地自容
作者: kira925 (1 2 3 4 疾風炭)   2019-01-28 19:52:00
只知道訓練不知道自己在幹嘛的 那是三流
作者: qscgg (QSC)   2019-01-28 19:54:00
贅詞太多了吧…就只是要表達AS的操作人類辦不到而已不是嗎
作者: cain1187 (白澤)   2019-01-28 19:58:00
還好啦 反正也不知道會變成這樣 以後還有很大的空間可以努力
作者: ThelmaEast   2019-01-28 19:59:00
微信公眾、誠實、看完全文。
作者: teren (blank)   2019-01-28 20:46:00
極限操作當然是用極限操作應對 所以選擇操作上限高的兵種這跟人類兵種組合講求的"效率"是完全不一樣的
作者: nissptt (niss)   2019-01-28 21:35:00
是這樣說沒錯啦! 但那一天,連教士甚至戰術召喚都可以用拿來引詭雷,那就太超過了。
作者: jim8596 (休刊是童年的回憶)   2019-01-28 22:01:00
要被nerf了 Pimba
作者: LochtsStorM (Lochts)   2019-01-29 00:32:00
不是有說打MANA那幾場是刻意沒設手速限制的嗎
作者: HenryLin123 (HenryLin123)   2019-01-29 08:13:00
早就說了 還有人說這樣練出來的AI有意義 意義就是操作幹爆 這個不用練也知道 大家是想看AI會有什麼戰術
作者: RIFF ( 向問天 )   2019-01-29 10:20:00
因為歐日對GOOGLE開徵網路稅 要救股價與騙投資吧
作者: Cishang (辭..)   2019-01-29 12:21:00
選星海這種APM占一大部分的GAME就是選錯了 不選擇人體因素壓到最低的GAME就沒有意義 人類怎麼不跟車輛比賽跑跟機械比力氣? 要比戰略遊戲就選不要有操作的 只有指令更何況還有一個偵查要素 偵查只查到半個單位只出現1秒 人類不是正好看到根本回會發現 而AI不會錯過 所以選錯遊戲
作者: Timba (踢音霸)   2019-01-29 12:27:00
解法 可能是 遊戲 速度要調慢 給人類機會 或是 執政官模式
作者: arrenwu (鍵盤的戰鬼)   2019-01-29 12:28:00
先等到人類真的打不贏吧 現在AI還在輸得一面倒的狀態你限制APM可能會導致AI什麼屁都搞不出來
作者: Timba (踢音霸)   2019-01-29 12:30:00
就是 故意的阿 AI 運算在烈士條件 還能算出最佳解 幹爆人就是 故意的阿 AI在劣勢條件 還能算出最佳解 打爆人這樣根本 超強
作者: aCCQ (阿賢)   2019-01-29 13:02:00
為甚麼限制APM可能會導致AI甚麼都搞不出來?
作者: kira925 (1 2 3 4 疾風炭)   2019-01-29 13:06:00
切畫面也是APM的一部分 APM太低可能就算不出理想結果
作者: arrenwu (鍵盤的戰鬼)   2019-01-29 13:09:00
我是在猜DeepMind之所以會拿這個成果出來,是因為限制APM之下訓練出來的AI可能跟低能一樣
作者: et00211   2019-01-30 00:35:00
其實蠻想看AlphaStar的第一視角的
作者: aegis43210 (宇宙)   2019-01-30 17:39:00
AS都是自己和自己打,APM太低可能光解讀大局就忙不過來
作者: jiaching (周末要好好玩了)   2019-01-30 19:16:00
用AI操作機械手臂控制鍵盤滑鼠 視訊鏡頭讀取螢幕資訊這樣子才能公平一點吧
作者: purplecake (紫蛋糕)   2019-01-30 21:56:00
那會變成瓶頸是機械控制吧
作者: kira925 (1 2 3 4 疾風炭)   2019-01-30 22:23:00
APM限制合理化 然後視野限制也合理化 點選加上一定亂數
作者: Cishang (辭..)   2019-01-31 00:39:00
所以說 選錯遊戲了
作者: IntoHebe (進入喜逼)   2019-01-31 03:15:00
阿法星:馬的打贏了還要跟智障人類解釋 好煩阿
作者: ken32293355 (ken)   2019-01-31 06:00:00
作者不懂ai也不懂星海阿
作者: schumi7401 (死蚊子給我出來)   2019-02-01 01:16:00
讓他去爬天梯吧
作者: anzari (雜音)   2019-02-01 20:35:00
限制APM搞不出來不就是輸而已嗎?跟電腦比運算 跟機器比速度是有什麼好研發的
作者: wayne30027 (tttok)   2019-02-03 15:01:00
看完確實覺得AS在作弊

Links booklink

Contact Us: admin [ a t ] ucptt.com