[問題] Sequence to Sequench LSTM echo numbers

作者: tmacfly (LoliMania蘿莉狂熱)   2018-01-04 13:57:56
大家好 本版首po
最近在學習Encoder-Decoder LSTM,看到一個範例是使用這個model去echo一個序列中前
幾個數字
舉例:
Xtrain ytrain
[4, 1, 12, 5, 3, 9] [4, 1, 0, 0, 0, 0]
[3, 8, 4, 1, 0, 10] [3, 8, 0, 0, 0, 0]
[7, 11, 9, 5, 1, 8] [7, 11, 0, 0, 0, 0]
之後加上Bidirectional和Attention,效能有比原本的大幅提升,但現在我想把這個問題
做一點修改,想要echo的部分是某個指定連續的兩個數字,但這指定的連續兩個數字在每
一個序列中的位置不一樣
舉例:
假設想要的partial sequence是[16, Z],Z是任意數字,但就是接在16後面,所以Xtrain
和ytrain可能長這樣
Xtrain ytrain
[4, 1, 12, 5, 3, 9, 16, 7, 0, 11] [16, 7, 0, 0, 0, 0, 0, 0, 0, 0]
[5, 16, 12, 3, 9, 10, 2, 1, 8, 7] [16, 12, 0, 0, 0, 0, 0, 0, 0, 0]
[6, 3, 10, 17, 16, 2, 5, 9, 11, 4] [16, 2, 0, 0, 0, 0, 0, 0, 0, 0]
Xtrain和ytrain會先做one-hot encode,但如果這樣會train不起來
我想說會不會是ytrain的樣子要做修改,但用位置做標記也不合理
把ytrain改成[0, 0, 0, 0, 0, 0, 16, 7, 0, 0]再去做one-hot encode,也train不起來
我目前想的是ytrain的樣子要做修改,然後才fit到model裡,但目前就是卡住了,不知道
該怎麼修改
希望有人能提供任何意見
附上範例連結:
https://machinelearningmastery.com/encoder-decoder-attention-sequence-to-sequence-prediction-keras/
作者: bibo9901 (function(){})()   2018-01-04 14:19:00
世界上有這麼多真實的時序資料 為什麼要做這麼怪的題目語言模型、語音辨識、甚至MNIST都能用RNN做 做這幹嘛?就算硬做, 這個教學從建模到實作技巧都....有進步空間
作者: Kazimir (Kazimir)   2018-01-04 19:22:00
我有點懷疑seq2seq是不是真的能做到你想要的..
作者: liang1230 (小良)   2018-01-04 23:40:00
用pointer network試試 只是你要給的變成頭尾的位置
作者: aszx4510 (wind)   2018-01-05 01:55:00
請教一下dataset大小?
作者: wilson85771 (HOW)   2018-01-06 00:09:00
如果每次都是找16的話,就直接用16去做attention

Links booklink

Contact Us: admin [ a t ] ucptt.com