[問題] xgboost 在 python 與 r 上的差異

作者: f496328mm (為什麼會流淚)   2017-05-12 01:17:36
文章分類提示:
- 問題: 當你想要問問題時,請使用這個類別。
建議先到 http://tinyurl.com/mnerchs 搜尋本板舊文。
[問題類型]:
意見調查(我對R 有個很棒的想法,想問問大家的意見)
[軟體熟悉度]:
入門(寫過其他程式,只是對語法不熟悉)
[問題敘述]:
最近發現 xgboost 在 R 與 python 上好像不太一樣,python的好像比較好?
所以拿 iris data 進行測試
python
http://imgur.com/Z9qB7B3
R
http://imgur.com/bu5RN3D
參數都設一樣,
發現 python 的表現比較好,1 次 vs 7 次
而且 python 做出的 model 比較好,
在 best_iteration 上也有差異,
所以 python 的 xgboost 比較快也比較強?
作者: a78998042a (Benjimine)   2017-05-12 08:22:00
對結果有興趣,如果覺得seed可能產生影響,是否直接多做幾次? 減輕隨機誤差,反正iris data set也不大
作者: f496328mm (為什麼會流淚)   2017-05-12 09:14:00
實際上做過多次,甚至其它data,一樣發生相同問題,應該跟seed無關
作者: a78998042a (Benjimine)   2017-05-12 09:22:00
您的意思是做過多次python的結果都顯著優於r的版本?
作者: f496328mm (為什麼會流淚)   2017-05-12 11:12:00
YES 特別在KAGGLE上 幾乎大家都用 python實際上我用 R 去重現對方的 python 效果也比較差可能是因為這個原因 所以比較少人用 R而且我有google找過 其他人也有相同的疑問我認為不太可能因為種子 產生這麼大的區別目前不知道原因 只好先轉用PYTHON去train model
作者: clansoda (小笨)   2017-05-12 11:39:00
何不直接去問DMLC?
作者: f496328mm (為什麼會流淚)   2017-05-12 12:45:00
已經問了 等待回應
作者: spiderway (spiderway)   2017-05-21 23:32:00
有隨機性...
作者: Wush978 (拒看低質媒體)   2017-05-23 15:56:00
直接被close了

Links booklink

Contact Us: admin [ a t ] ucptt.com