Re: [討論] 淺談AlphaGo

作者: bigelephants (.__./)   2017-01-05 11:46:34
※ 引述《nnlisalive (nnlisalive)》之銘言:
: ※ 引述《ykes60513 (いちご)》之銘言:
: : 假設A走法有90%贏一目 B走法有85%贏十目 AlphaGo會選前者
: 請問有誰知道90%或85%是怎計算出來的?
: 因為對手還沒下 需要跑迴圈運算
: 這勝率統計是否有所謂的信賴區間
: 再來是會不會有100%勝率落子的時候
: 當100%的路一出現 是否就代表比賽結束
: 去年AG對上李 我看那個落子機率會忽高忽低
: 雖然大部分的時候是50~100%遞增
: 但李 v.s AG大戰第4局的78手 頓時讓AG勝率下降不少
: 是否代表只要我們能下出Alpha世界線以外的棋
: 就能迎接勝利的美好未來?
小弟這學期有修電腦對局理論的相關課程
看到這篇想說分享一下好了
我們上一次的作業是要做黑白棋的 AI
使用的方法就是蒙地卡羅搜尋樹 (跟 AlphaGo 比起來只是菜而已)
考慮當前我可以下的每一步棋的情況下
我們都可以假設「雙方棋手只會亂數下棋」
並且去計算每一步可行的棋所亂數出來的盤面勝率有多少
這裡的勝率是指最終盤面 可以想像電腦亂數把一盤棋下完只要幾毫秒的時間
我自己做出來的實驗一秒內算個一萬多盤棋是沒有問題的
概念上其實就是隨機抽樣而已
關於使用到的技術 其實還有各式各樣的優化
並且讓電腦接續前一步下的棋思考也並非難事 (實作上不難)
因此電腦暖機越久想得越清楚 越接近實際上的亂數勝率(非真實勝率)
作者: aaaba (小強)   2017-01-05 11:49:00
暖機是什麼?
作者: bigelephants (.__./)   2017-01-05 11:50:00
因為電腦思路是樹狀的 他可以保留對手走的路徑 其他砍掉 抱歉沒有講得很清楚大致上就是他可以利用前面幾手耗時所想的東西繼續想
作者: politics (politician)   2017-01-05 12:38:00
半桶水的大學作業就別說在這邊說嘴了 真的懂再來說
作者: aaaba (小強)   2017-01-05 12:41:00
他是在說他對mcts的理解,也是回應上一篇的疑問。其他人覺得想補充的也歡迎啊
作者: qqq1397 (渾汲噩營)   2017-01-05 12:57:00
這種還不能說?不懂裝逼的廢文多到膩
作者: ddavid (謊言接線生)   2017-01-05 13:05:00
大致上講得沒錯啊,不知道476上站1發文的politics大大有何更詳細的見解
作者: politics (politician)   2017-01-05 13:18:00
https://goo.gl/U5ypHp 英文看不懂的話看強國人講大綱https://www.zhihu.com/question/41176911這篇自己都說沒看過deepmind的論文了 屁這些有價值嗎?mcts這只是個名詞 我用ooxx遊戲都可以跟你說明但deeplearn不是單純的mcts 就降
作者: bigelephants (.__./)   2017-01-05 13:23:00
哈哈我有空會拜讀一波!
作者: ddavid (謊言接線生)   2017-01-05 13:29:00
不是純粹的MCTS沒錯,但會無法直接算出100%勝率的理由確實是因為這一塊,他講的還是有打在點上啊,或者您想要補充更詳細的其他方面理由?
作者: indium111 (#ttyhg)   2017-01-05 13:53:00
就跟選情統計一樣,抽樣越大就越接近真實的結果
作者: freef1y3 ( )   2017-01-05 14:35:00
deep learning 就只是用來剪枝 & 選擇要先試哪一手這概念也是可以用在其他遊戲上啊

Links booklink

Contact Us: admin [ a t ] ucptt.com