Speech and Language Processing Dan Jurafsky and James H. Martin https://web.stanford.edu/~jurafsky/slp3/ 東工大岡崎先生の講義資料 https://chokkan.github.io/deeplearning/ 最新の研究は、Twitterも情報源 (NLPerの多くはTwitterにいる:ハッシュタグは#NLProc) 4
変換(前述の単語埋め込みと同じ処理) 2. 符号化器再帰層(encoder recurrent layer) i番目の埋め込みベクトルx i を隠れ状態ベクトルh i に変換 34 今日 は 晴れ i = 1 2 X 3 encoder embedding layer encoder recurrent layer h 1 h 3
変換(前述の単語埋め込みと同じ処理) 2. 符号化器再帰層(encoder recurrent layer) i番目の埋め込みベクトルx i を隠れ状態ベクトルh i に変換 36 今日 は 晴れ i = 1 2 X 3 encoder embedding layer encoder recurrent layer h 1 h 3
復号化器再帰層(decoder recurrent layer) 埋め込みベクトルy j を隠れ状態ベクトルh j に変換 ニューラルネットの種類はLSTM, GRU, CNN何でも良い 40 <BOS> It is today It is sunny today <EOS> sunny Y decoder embedding layer decoder recurrent layer j = 1 2 4 5 h 1 h 2 h 3 h 4 3
復号化器再帰層(decoder recurrent layer) 埋め込みベクトルy j を隠れ状態ベクトルh j に変換 41 <BOS> It is today It is sunny today <EOS> sunny Y decoder embedding layer decoder recurrent layer j = 1 2 4 5 h 1 h 2 h 3 h 4 3 h 0 h 0 はEncoderの符号化器再帰層の最後の位置の隠れ状態ベクトルZ