[問題] embedding與word2vec觀念釐清

作者: ts1029 (熠星)   2017-12-14 10:04:23
如題
embedding 應該是詞向量
那word2vec是詞向量組成的類似字典的東西
還是指組成字典的模型?
作者: pups003 (岡本)   2017-12-14 10:44:00
word2vec is one of word embedding approaches
作者: alan23273850   2017-12-14 11:25:00
word2vec是把字轉成特徵向量的機制、套件、或演算法,embedding在keras裡面就只是負責轉換的一個layer
作者: goldflower (金色小黃花)   2017-12-15 07:30:00
word embedding大致上就是把文字降維的總稱然後word2vec基本上就是個autoencoder降維的方式
作者: bibo9901 (function(){})()   2017-12-15 10:19:00
word2vec 是語言模型...不是什麼autoencoder
作者: goldflower (金色小黃花)   2017-12-15 12:43:00
樓上對 autoencoder只是一種實作方式QQ
作者: aszx4510 (wind)   2017-12-15 15:07:00
其實一樓就是解答吧
作者: bibo9901 (function(){})()   2017-12-15 15:58:00
不是. autoencoder 是把自己映射到自己word2vec是把context映射到word 完全不一樣的東西
作者: goldflower (金色小黃花)   2017-12-15 18:28:00
對耶幹 自己映射到自已幹嘛… 抱歉我耍白痴 把訓練過程跟降維搞混了

Links booklink

Contact Us: admin [ a t ] ucptt.com