Upgrade to PRO for Only $50/Year—Limited-Time Offer! 🔥

2002_Interspeech報告.pdf

Ryo Masumura
February 13, 2020

 2002_Interspeech報告.pdf

Ryo Masumura

February 13, 2020
Tweet

More Decks by Ryo Masumura

Other Decks in Research

Transcript

  1. 音声分野の研究例④ • Contrastive Predictive Coding [van den Oord+ NIPS 2018]

    • アイデア:未来のセグメントかどうかを見分けられるように学習し た表現空間は有用なのでは? 未来のセグメントを相互情報量 基準で見分けられるようにする
  2. • アイデア:波形情報から対数パワースペクトルや MFCC、F0、零交差率を予測できるエンコーダは 音声を扱う問題に有用な表現を埋め込むことがで きるのでは? • 結果:エンコーダにSincNet[Ravanelli+ 2018]を 用いて学習することにより、MFCCやログメル フィルタバンク係数よりも高い性能を達成、特に

    話者認識や感情分類では特に有用 Learning Problem-agnostic Speech Representations from Multiple Self-supervised Tasks Santiago Pascual, Mirco Ravanelli, Joan Serrà, Antonio Bonafonte1, Yoshua Bengio 「これまでの特徴量抽出のノウハウを利用した表現学習」
  3. Self-supervised speaker embeddings Themos Stafylakis, Johan Rohdin, Oldrich Plchot, Petr

    Mizera, Lukas Burget • アイデア:同一音声内の別セグメントのオートエ ンコーディング(音素系列経由のオートエンコー ディング)を助けることができる表現は、話者等 の情報を含む表現なのでは? ※ ASRを使う点はややずるい… • 結果:学習した表現を話者認識タスクで利用する ことで、d-vectorと遜色ない性能を達成 「 ”発話内という情報”を明示的に利用した表現学習 ~その2~」
  4. Unsupervised Representation Learning with Future Observation Prediction for Speech Emotion

    Recognition Zheng Lian, Jianhua Tao, Bin Liu, Jian Huang 「Transformer自己回帰モデルベースの表現学習」 • アイデア:Transformerのデコーダ部分である masked multi-head self attentionベースの自 己回帰モデルを用いて、現在までの情報から未 来のフレームを予測できるように学習すれば有 用なエンコーダを構成できるのでは? • 結果:感情認識タスクの事前学習に用いること により高い性能を達成