※ 引述《praiseZun (praiseZun)》之銘言:
: 現在的AI就是啊
: 深度學習爆紅是十年前就開始了
: 但大家根本不知道為什麼neural堆深一點就可以學習
: CNN出來時屌炸天,好像什麼pattern都學的起來一樣
: 然後你問研究者為什麼圖片和文字的data structure兩者可以取得有類比性的成功
: 他會和你說我也不知道,甚至直接寫在論文裡那種
: 然後花了好幾年時間trial and error,用結果反推為什麼
: 這個研究方法不叫懂基本原理,的確比較像動漫那種黑科技知道能用就將就著應用而已
: 基礎原理的理解完全跟不上
: 當然啦,我們知道nerual net可以趨近任意函數
: 我們也知道這個世界和高斯分布關係很深
: (高斯分布encode了最多的不確定性,同樣大小的空間下高斯能紀錄最多資訊)
: 但一樣啊,這只是稍微justify我們用神經網路,還有每個未知的分布都先用高斯套或
高斯p
: rior套而已
: 然後他就work了
: 明明說因為天下沒有白吃的午餐理論,任何一個演算法都會被某一些分布的資料搞爆
: 但他就work了啊
: 著名學者像Andrew Ng在課堂上也就聳肩說看起來這世界對我們敵意沒那麼深
: .
: .
: 但是最近好像終於開始有些進展了,NTK之類的
: 滿多是19年和今年的論文的,我還沒跟上,懂得大大請體諒我的認知
: 我自己一路學來是覺得
: 這個領域就是霧裡看花,但你學越多霧就越散
: 現有理論的不完整,我是覺得一部分是真的不完整
: 但其他一部分是大部分人,甚至可以講非AI領域,貝氏統計領域,量子領域以外的對un
cert
: ainty(不確定性)都沒什麼認知
: 絕大多數人覺得世界就是0和1,不會去問threshold是什麼背後的分布長啥
: 一旦接受了這世界就是建立在不確定性的基礎上這設定後
: 很多事情就不會腦袋轉不過來這樣
: 要知道不一定要知道某一現象才叫懂
: 你知道你不懂什麼不知道什麼再能夠去推論你懂什麼
: 能做到這樣就很近似你懂了,這樣
: