現在的AI就是啊
深度學習爆紅是十年前就開始了
但大家根本不知道為什麼neural堆深一點就可以學習
CNN出來時屌炸天,好像什麼pattern都學的起來一樣
然後你問研究者為什麼圖片和文字的data structure兩者可以取得有類比性的成功
他會和你說我也不知道,甚至直接寫在論文裡那種
然後花了好幾年時間trial and error,用結果反推為什麼
這個研究方法不叫懂基本原理,的確比較像動漫那種黑科技知道能用就將就著應用而已
基礎原理的理解完全跟不上
當然啦,我們知道nerual net可以趨近任意函數
我們也知道這個世界和高斯分布關係很深
(高斯分布encode了最多的不確定性,同樣大小的空間下高斯能紀錄最多資訊)
但一樣啊,這只是稍微justify我們用神經網路,還有每個未知的分布都先用高斯套或高斯p
rior套而已
然後他就work了
明明說因為天下沒有白吃的午餐理論,任何一個演算法都會被某一些分布的資料搞爆
但他就work了啊
著名學者像Andrew Ng在課堂上也就聳肩說看起來這世界對我們敵意沒那麼深
.
.
但是最近好像終於開始有些進展了,NTK之類的
滿多是19年和今年的論文的,我還沒跟上,懂得大大請體諒我的認知
我自己一路學來是覺得
這個領域就是霧裡看花,但你學越多霧就越散
現有理論的不完整,我是覺得一部分是真的不完整
但其他一部分是大部分人,甚至可以講非AI領域,貝氏統計領域,量子領域以外的對uncert
ainty(不確定性)都沒什麼認知
絕大多數人覺得世界就是0和1,不會去問threshold是什麼背後的分布長啥
一旦接受了這世界就是建立在不確定性的基礎上這設定後
很多事情就不會腦袋轉不過來這樣
要知道不一定要知道某一現象才叫懂
你知道你不懂什麼不知道什麼再能夠去推論你懂什麼
能做到這樣就很近似你懂了,這樣