[問題] 類神經網路的反向傳播與邏輯回歸

作者: st1009 (前端攻城師)   2017-08-27 22:09:54
不好意思,想請請教各位大大,
我看一般訓練類神經網路都是使用反向傳播演算法(Backpropagation),
可是我看類神經網路(ANN)與邏輯回歸式(Logistic regression)高度相似,
甚至有些人說,邏輯回歸式疊加就是類神經網路!
所以我在想,是否我可以用多層的邏輯回歸式,來建立深度學習?
並且邏輯回歸式權重雖然可以用BP求得,
但是其實也可以直接根據輸入來算吧?
而且感覺直接以邏輯回歸式本身計算方法算出權重,應該會比BP更快?
可是我似乎都沒看到有人這樣用,是會有甚麼問題嘛?
有相關的論文資料嘛?
作者: andrenvq57 (喂!威,喂?)   2017-08-28 08:36:00
ㄜ 可以定義多層嗎
作者: singlovesong (~"~)   2017-08-29 12:27:00
是一樣的東西 就是多參數求導 BP 只是 chain rule
作者: jackace (inevitable......)   2017-09-13 21:06:00
DN不只是Sigmoid 公式解能用的場合太少 maxpooling, BN,還有RNN 都沒公式解

Links booklink

Contact Us: admin [ a t ] ucptt.com