[請益] deep learning怎麼學習?

作者: beaprayguy (小羊快跑啊)   2017-07-29 18:33:28
最近被deepmind的AI震驚
AI最核心部分是deep learning
閱讀文獻得知,deep learning
是透過artificial neural network
透過一層一層neuron堆疊,得到一個output
目前解決方法是找到gradient descent
或者現今有比他更好的方式?
透過和標準答案的loss,取得最低點。
但過多層可能導致Vanishing Gradient
都是最低點,可能要透過調整達成
若想自學要從哪一方面進入,若相關職缺基礎門檻是什麼。
今年30歲,想做一個人工智慧夢。
請問有可能的掛嗎
作者: Kazimir (Kazimir)   2017-07-29 18:42:00
如果你英文還可以的話 MOOC有不少CS231n很有名 不過我還沒看過所以不太確定對初學者好不好
作者: cybermeow (我有一隻貓)   2017-07-29 19:11:00
拿個現成的framework來用小學生也會寫deep learning
作者: NCUking (中大王)   2017-07-29 19:13:00
當興趣可以 但要當職業就非常難了
作者: abc0922001 (中士abc)   2017-07-29 19:21:00
作者: kyodaisuki (↖☆煞氣a_Kyou★↘)   2017-07-29 19:28:00
reinforcement learning
作者: MonkeyCL (猴總召)   2017-07-29 19:37:00
人機大戰的時候,圍棋板很多人在教深度學習
作者: kingrobber (Gosh)   2017-07-29 19:50:00
沒有數學底子都只能在表面繞我看了三門MOOC之後的感想
作者: ckp4131025 (ckp4131025)   2017-07-29 20:08:00
要自己弄model 數學要不錯ML AI DL有很多線上課程
作者: Morphee (千磨萬擊還堅勁)   2017-07-29 20:10:00
就學深一點阿 你之前學的太淺了
作者: dddddd67 (斷水流大師兄)   2017-07-29 20:20:00
博士班簽下去啊
作者: TERRYB (白夜行)   2017-07-29 20:27:00
真的,資工到後面就是都在算數學....
作者: ice80712 (我很有事)   2017-07-29 20:27:00
網路上很多Sample code可以先玩一玩
作者: askia (過客)   2017-07-29 20:42:00
先問問自己幾個問題:你數學強嗎?有興趣嗎?再考慮要不要學。要學表面很快就能上手,要玩深入很難如果你只是跟風的話,等你學會熱潮大概也過了
作者: Murasaki0110 (麥當勞歡樂送)   2017-07-29 20:46:00
數學先弄好
作者: vu04y94 (今)   2017-07-29 20:48:00
本小弟我以前也覺得dl很潮 後來發現玩DL用套件國中生都會甚至比學C++簡單 如果要深入還是數學要好 CS到最後精華還是在數學我認為隨著越來越多非本科的投入 像一些數學背景的大師應該能有更驚人的成長
作者: eva19452002 (^^)   2017-07-29 21:06:00
電腦界的大師們同時都有另一個稱號就是數學家
作者: Sunal (SSSSSSSSSSSSSSSSSSSSSSS)   2017-07-29 21:43:00
純數的領域其實很虛無飄渺的..其他領域都只能摸點邊
作者: Ommm5566 (56天團)   2017-07-29 22:32:00
是要問幾次 去youtube林軒田
作者: Mchord (Mchord)   2017-07-29 22:47:00
英文寫作很重要,DL paper特色之一就是唬爛
作者: paul800526 (大蝌蚪)   2017-07-29 23:27:00
把網路上一堆資料丟到你的腦袋裡面training,如果你學不會,這就代表你的model建壞了,也就是說,你的neuron不夠多,你就知道你不適合了,因為你train壞的問題是先天的
作者: cybermeow (我有一隻貓)   2017-07-29 23:57:00
認真說 DL的paper很多不會DL也看的懂 數學不好沒關係反正結構改一改有不同的構想也能做出新東西 背後數學的理論我覺得主要是stat跟proba (至少ml整體是這樣)然後那些東西感覺主修數學唸到碩博士大概都不一定夠了
作者: hsnuyi (羊咩咩~)   2017-07-30 00:23:00
套一句某數學大師的話 懂基礎的實分析就可以做研究了 要是要搞懂過去某個領域用過的所有數學才能開始 那當代人就不用創新了
作者: f496328mm (為什麼會流淚)   2017-07-30 00:38:00
樓上這樣講還不錯 真的要搞懂 數學系也很多都不懂我們站在巨人的肩膀上就好了keras 也是設計的平易近人先有實作經驗 久了就會主動去了解背後的原理
作者: Telemio (Telemio)   2017-07-30 00:47:00
我也覺得樓上有些人誇大 DL現在這麼火紅其實也是站在巨人的肩膀上吧 說數學要多神也還好吧? 很多paper也都著重理論創新 但還是比較強調實驗吧
作者: hsnuyi (羊咩咩~)   2017-07-30 01:10:00
我是說有一定的基礎 就可以開始研究...
作者: Kazimir (Kazimir)   2017-07-30 02:53:00
我真的覺得DL的數學沒有那麼多&難 除非你的目標就是數學舉GANs當例子,如果你打算從數學的角度搞清楚為什麼那會很複雜 到目前為止應該還沒有真的搞清楚 只有定性可是實際上的操作就只是用D多產生一個loss給G而已其他比較多數學的部分是找更好的loss & 找更多正規化手段
作者: stitchris (史迪奇里斯)   2017-07-30 03:17:00
XXXXXXXXD 推paul
作者: Morphee (千磨萬擊還堅勁)   2017-07-30 03:19:00
不念到實分析是不夠資格做DL的
作者: steve1012 (steve)   2017-07-30 08:21:00
其實一堆人跳下去前都沒修過實分析啊xD
作者: johnny94 (32767)   2017-07-30 12:31:00
基本上認識真正懂DL 沒有一個人強調數學要多好才可以研究的,大概只要有大一的微積分就可以玩了
作者: zi62007 (Money)   2017-07-30 13:08:00
三樓說小學生可以玩,又有人說要微基分,好亂啊
作者: vu04y94 (今)   2017-07-30 14:12:00
我是以發paper的角度來看啦 做product當然是另一回事 我覺得那些人不強調數學要很好 是因為他們本身就很強 強到以為大家都會..不過就像上面說的 都是邊做邊學 不然永遠追不上新的技術
作者: hsnuyi (羊咩咩~)   2017-07-30 16:20:00
正規化方法很多就是從多變量統計出來的 要亂try也可啊 只不過無法解釋罷了 上面就看到幾個數學很強的啊 整天掛在嘴上說數學不重要 是怕人搶出路喔 www看paper最難的 不是演算法如何重現 而是數學看不懂 不知為啥要這樣做
作者: wilson85771 (HOW)   2017-07-30 19:22:00
先把李宏毅老師的課程錄影通通看懂吧
作者: Kazimir (Kazimir)   2017-07-30 20:51:00
一個領域有很多面向 沒有做凝態先去學弦論的道理
作者: prag222 (prag)   2017-07-30 21:44:00
真的要有能力也要花好幾年培養吧,培養出來也頂多在本地在本地又會哭台灣薪水,出去有跟不了別人菁英競爭 除非你很神~~~
作者: red0210 (My Name Is Red)   2017-07-30 21:45:00
有人可以舉個幾篇要實分析才看懂的 paper 嗎?
作者: cybermeow (我有一隻貓)   2017-07-30 22:18:00
http://www.cs.toronto.edu/~jmartens/docs/Deep_HessianFree.pdfhttps://www.cs.toronto.edu/~hinton/absps/fastnc.pdf這種應該算有些數學在裡面的然後我自己也沒有詳細讀不要來電我
作者: meteor260 (犀牛)   2017-07-31 17:11:00
玩跟有能力改進, 如何train出好model是兩碼子事啊玩確實小學生可以玩啊XD, 要弄到好現在很多領域都還要花時間追論文呢啥都不懂頂多就加更多層, 然後就Vanishing Gradient然後就兩手一攤就是個知其然很容易, 知其所以然很難的領域
作者: BlackMatrix (BlackMatrix)   2017-07-31 22:04:00
Vanishing Gradient在目前一般常用的ReLU不會發生所以之前版上有個Kaggle冠軍就是Vgg+一千層(?)Dense
作者: Murasaki0110 (麥當勞歡樂送)   2017-07-31 22:09:00
不會發生,那ResNet或今年CVPR的DenseNet是在做啥
作者: BlackMatrix (BlackMatrix)   2017-07-31 22:20:00
看了一下, 可以在GPU裡面放更大的Model通過某種Weights/Bias SharingVanishing Gradient也不會發生就如同LSTM/GRU也不會發生Vanishing Gradient
作者: gachen (摳比)   2017-08-01 15:02:00
Cs231n非常不錯,我各人很推薦。
作者: jimshadow (kkk)   2017-08-02 16:44:00
實分析是指高微嗎?
作者: leoloveivy (cried)   2017-08-08 01:03:00
老實說適不適合就看你寫程式會不會留參數 如果你很喜歡這些參數可以透過一些方法自動算出來 而不是再那tune那麼我覺得這樣特質很適合ml ai

Links booklink

Contact Us: admin [ a t ] ucptt.com