Re: [請益] AI的發展選擇

作者: foxgoodboy (i have a dream)   2017-10-23 10:59:15
看完一系列文章 似乎了解AI的人不多 畢竟在浪頭上
所以大家一窩風的去炒他
→ enso: 硬體架構還是得看哪一類的應用。若多為影像辨識,那gpu還是 10/23 00:22
→ enso: 好用些。至於AI,也是蠻廣的,不是跑CNN就算AI。到終究還是 10/23 00:22
→ enso: 統計...
AI弄到最後 老實說就統計跟數學 程式只是輔助工具而已
而硬體 是進階的輔助
因為進步非常的快 所以常常今年流行的演算法 明後年馬上很少人用了
譬如說當初學的SVM的 kernel 學了幾十種 Kernel 還有混和kernel
第二年學教就不開kernel 直接交deep learning
再過一年直接變成 deep reinforced learning 也開始有簡單的ML套裝軟件出現
我同學還開發了 直接在excel上面可以用ML 套件 給商學院的人使用
至些都只是用現成的API 至於未來會不會有比較高效的演算法出現 很難說~
所以或句話說 你今天會的API 明年可能馬上退流行或被取代掉了
而且以台灣現狀 大多都是用現成的API 調調參數 這算真的懂ML嗎?
跟幾個ML的教授跟 Hassabis 聊過 他們給我的忠告是把 數學 統計學 C++學好
因為演算法可能幾年後主流就不再deep learning了
那時候是不是又會開發出新的晶片架構 提供給新的演算用呢?
很難說~~
※ 引述《david190 (david)》之銘言:
: ※ 引述《vivian032619 (亮~被罵+掛電話惹)》之銘言:
: : 朋友代po
: :
作者: senjor (哞哞)   2017-10-23 11:03:00
我覺得這就是有點看不起應用層了,選好Featrue不見得比做kernel簡單,不如說好的featrue改善程度遠大於改kernel很多時候還會選不同kernel來驗證這個featrue是真的有效的這也算是ML的鄙視鏈吧...
作者: foxgoodboy (i have a dream)   2017-10-23 11:05:00
Featrue通常是靠統計哪塊去選~不然你是怎麼選feature?統計不夠強根本無法選出合適的features只能用try的 目前台灣好像都是用try的
作者: senjor (哞哞)   2017-10-23 11:09:00
應該說ML有很多面向,用現成的API調參數只是一個選擇,每人著重的面向都不同,不代表用現成的API調參數就是不懂ML
作者: foxgoodboy (i have a dream)   2017-10-23 11:11:00
因為API很方便 所以國外蠻多做ML的公司 面試就直接考你公式推導 還有每個API參數的特性適用於那種data 會考的你不要不要的~~~因為他們就怕你只會調參數 但不知道它的原理
作者: senjor (哞哞)   2017-10-23 11:14:00
這方面我就沒涉獵了,受教了。
作者: foxgoodboy (i have a dream)   2017-10-23 11:16:00
最好笑的 我有一個同學直接跟面試官說 我會調參數就好面試官直接回答他 你原理都不懂 你確定你會調?
作者: hsnuyi (羊咩咩~)   2017-10-23 11:18:00
您認真了 跟GG版說這些做啥? 去GG一輩子賺150才是王道
作者: senjor (哞哞)   2017-10-23 11:19:00
不過這邊講的會調參數跟我想的不太一樣就是,我以為的會用API跟會調參數就是會知道你說的那些,但是可能是演算法或其他程度不足以到自己開發到實用API的程度這樣。
作者: foxgoodboy (i have a dream)   2017-10-23 11:23:00
樓上講這樣也是沒錯啦~~但那是比較強一點狀況比較弱的狀況 就亂調得到很高的準確率 就說自己會了那真的很傻眼
作者: senjor (哞哞)   2017-10-23 11:28:00
這...我沒想到這種人的可能性...是我孟浪了 Orz
作者: cobrasgo (人魚線變成鮪魚線,超帥)   2017-10-23 11:30:00
c++?把python當死人了嗎(戰)
作者: a1234567289 (蛋包飯)   2017-10-23 11:37:00
推 真的一堆人在try參數 然後獲得很高準確度就說會了然後問他你調參數的道理是啥 覺得遇到什麼問題才這樣改變參數 結果都達不出來 QQ不然就發現精度不夠 一窩蜂的跑去想辦法找資料來try
作者: senjor (哞哞)   2017-10-23 11:42:00
我還記得剛進研究所的時候,就是寫兩個loop去跑K-fold CV然後這樣去拿SVM的兩個參數,誰知道為什麼這個參數好,用就對了 (ry
作者: ice80712 (我很有事)   2017-10-23 11:58:00
feature未必要用統計 機器也可以學阿
作者: laba5566 (最愛56家族 啾咪)   2017-10-23 12:01:00
選feature多的方法幹 造feature才是難點
作者: david190 (david)   2017-10-23 12:03:00
當然是這樣的阿 新的更好演算法 值得更好的硬體架構
作者: laba5566 (最愛56家族 啾咪)   2017-10-23 12:03:00
大部分top model RF GB表現會十分近似 弄好feature出來
作者: senjor (哞哞)   2017-10-23 12:05:00
這讓我想到生還者預測,姓名直接被丟進去沒有太大效益但是如果整理成家族生還率的參照featrue就會有效果不過感覺這又變成類似前後端之爭的東西了,鄙視鏈重現
作者: y800122155 (@__@)   2017-10-23 13:31:00
SVM只有g/c兩個參數都能不懂原理 那10個以上怎麼調XD
作者: senjor (哞哞)   2017-10-23 14:11:00
跑10個loop (ry
作者: F14A (湯姆貓)   2017-10-23 15:25:00
之前看研究所的學長meeting,整場我就只看到他:準確率不高->改參數 or 加一堆有的沒的模型->準確率變高了ya ,有夠無言...
作者: aacs0130 (湛靈)   2017-10-23 16:29:00
推造feature才是困難的,選feature有很多統計方法
作者: senjor (哞哞)   2017-10-23 17:01:00
我現在才知道原來選feature跟造feature居然被分成兩種了我整個老人化...以前我們說選feature就包含選自己作出來的
作者: enso (Raven Family)   2017-10-23 17:38:00
參數化也是統計的一部份... 最後會發現,會挑數據比教重要
作者: francishsu (法藍西)   2017-10-23 18:00:00
GIGO
作者: Iamjkc (萬年死會)   2017-10-23 19:36:00
滿專業的 數學還是要先打好基礎...
作者: harrybbs (harrybbs)   2017-10-23 19:46:00
AI專業可以超越GG的150吧
作者: Gaogaigar   2017-10-23 20:57:00
我也是覺得feature seletection跟data presentation不一樣的說o 3o
作者: foxgoodboy (i have a dream)   2017-10-24 13:01:00
印象當中最好玩的是~我問了幾個MIT的主管~如何把分布不平均的data 變成常態分布的時候沒有一個答得出來的~~我就跟他們說 開根號乘以十其中一個聽得懂~就一直笑~
作者: Jerrynet (我愛Hot_game板)   2017-10-24 13:26:00
教授期末調分,ㄏㄏ
作者: cld123 (colin)   2017-10-25 10:19:00
要挑feature也要有sample訓練啊

Links booklink

Contact Us: admin [ a t ] ucptt.com