※ 引述《mathbug (天堂的定義)》之銘言:
: 1. 據說 AlphaGo用到的Neuro Network深達13層
: 有任何穩定性的報告或是說明嗎?
論文裡有提到它預測的誤差
: 2. 圍棋的勝敗至少包括兩種,一種是壓著打或是完勝,另一種是反敗為勝
: AlphaGo的設計應該是循著第一條路線
: 問題是餵它的千萬盤訓練用人類棋譜卻包含非常多第二類棋譜
: 反敗為勝的棋譜應該非常多用的是勝負手(或是無理手)
: 不曉得這會不會是AlphaGo昨天崩潰的原因?
所謂千萬盤是自我對奕, 不是人類實戰譜, 人類高手實戰譜還沒那麼多.
看它跟小李下的棋路, 是第一種路線多? 還是第二種多?
: 3. 以現在AG的能力,它應該可以先歸類/分群 將之前訓練的棋譜分開
: 重新訓練時只採用第一種壓著打或是完勝的棋譜
: 也許就不會有無理手的出現了 (或數學上 讓它的系統參數穩定)
中間攻防輸掉是 AlphaGo 形勢判斷錯誤, 劣勢盤面還以為優勢繼續走損手.
後來左下角的挖被吞吃, 還有點影響到左邊黑棋的死活.
理論上決策樹會假設對方走最好的一手 (被吞吃), 而不是期待對方犯錯.
AlphaGo 有很多其他的著手選擇, 下起來都沒有那一手損導致勝率更低.
就算以 AI 的角度, 我也看不懂它在下甚麼.
難不成 AlphaGo 大幅落後時策略改成期待對方應錯翻盤?