作者:
ts1029 (熠星)
2017-12-14 10:04:23如題
embedding 應該是詞向量
那word2vec是詞向量組成的類似字典的東西
還是指組成字典的模型?
作者:
pups003 (岡本)
2017-12-14 10:44:00word2vec is one of word embedding approaches
word2vec是把字轉成特徵向量的機制、套件、或演算法,embedding在keras裡面就只是負責轉換的一個layer
word embedding大致上就是把文字降維的總稱然後word2vec基本上就是個autoencoder降維的方式
作者:
bibo9901 (function(){})()
2017-12-15 10:19:00word2vec 是語言模型...不是什麼autoencoder
樓上對 autoencoder只是一種實作方式QQ
作者:
bibo9901 (function(){})()
2017-12-15 15:58:00不是. autoencoder 是把自己映射到自己word2vec是把context映射到word 完全不一樣的東西
對耶幹 自己映射到自已幹嘛… 抱歉我耍白痴 把訓練過程跟降維搞混了