Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介: A Document Descriptor using Covariance of...
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Yumeto Inaoka
February 27, 2019
Research
1
300
文献紹介: A Document Descriptor using Covariance of Word Vectors
2019/02/27の文献紹介で発表
Yumeto Inaoka
February 27, 2019
Tweet
Share
More Decks by Yumeto Inaoka
See All by Yumeto Inaoka
文献紹介: Quantity doesn’t buy quality syntax with neural language models
yumeto
1
210
文献紹介: Open Domain Web Keyphrase Extraction Beyond Language Modeling
yumeto
0
260
文献紹介: Self-Supervised_Neural_Machine_Translation
yumeto
0
180
文献紹介: Comparing and Developing Tools to Measure the Readability of Domain-Specific Texts
yumeto
0
190
文献紹介: PAWS: Paraphrase Adversaries from Word Scrambling
yumeto
0
180
文献紹介: Beyond BLEU: Training Neural Machine Translation with Semantic Similarity
yumeto
0
300
文献紹介: EditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing
yumeto
0
370
文献紹介: Decomposable Neural Paraphrase Generation
yumeto
0
240
文献紹介: Analyzing the Limitations of Cross-lingual Word Embedding Mappings
yumeto
0
260
Other Decks in Research
See All in Research
第二言語習得研究における 明示的・暗示的知識の再検討:この分類は何に役に立つか,何に役に立たないか
tam07pb915
0
1.1k
Multi-Agent Large Language Models for Code Intelligence: Opportunities, Challenges, and Research Directions
fatemeh_fard
0
120
OWASP KansaiDAY 2025.09_文系OSINTハンズオン
owaspkansai
0
110
Combining Deep Learning and Street View Imagery to Map Smallholder Crop Types
satai
3
570
Mamba-in-Mamba: Centralized Mamba-Cross-Scan in Tokenized Mamba Model for Hyperspectral Image Classification
satai
3
590
Pythonでジオを使い倒そう! 〜それとFOSS4G Hiroshima 2026のご紹介を少し〜
wata909
0
1.3k
HU Berlin: Industrial-Strength Natural Language Processing with spaCy and Prodigy
inesmontani
PRO
0
210
Self-Hosted WebAssembly Runtime for Runtime-Neutral Checkpoint/Restore in Edge–Cloud Continuum
chikuwait
0
320
CoRL2025速報
rpc
4
4.1k
LLM-jp-3 and beyond: Training Large Language Models
odashi
1
760
2025-11-21-DA-10th-satellite
yegusa
0
110
ペットのかわいい瞬間を撮影する オートシャッターAIアプリへの スマートラベリングの適用
mssmkmr
0
260
Featured
See All Featured
Docker and Python
trallard
47
3.7k
[SF Ruby Conf 2025] Rails X
palkan
1
750
Leadership Guide Workshop - DevTernity 2021
reverentgeek
1
200
Imperfection Machines: The Place of Print at Facebook
scottboms
269
14k
The Anti-SEO Checklist Checklist. Pubcon Cyber Week
ryanjones
0
56
Why Your Marketing Sucks and What You Can Do About It - Sophie Logan
marketingsoph
0
74
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
122
21k
How to train your dragon (web standard)
notwaldorf
97
6.5k
DevOps and Value Stream Thinking: Enabling flow, efficiency and business value
helenjbeal
1
93
The Art of Delivering Value - GDevCon NA Keynote
reverentgeek
16
1.8k
Into the Great Unknown - MozCon
thekraken
40
2.3k
What Being in a Rock Band Can Teach Us About Real World SEO
427marketing
0
170
Transcript
A Document Descriptor using Covariance of Word Vectors 文献紹介 2019/02/27
長岡技術科学大学 自然言語処理研究室 稲岡 夢人
Literature 2 Title A Document Descriptor using Covariance of Word
Vectors Author Marwan Torki Volume Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 527-532, 2018.
Abstract 単語ベクトルを用いた固定長の文書表現を提案 (Document-Covariance Descriptor; DoCoV) → Supervised, Unsupervisedのアプリケーションで 簡単に利用できる
様々なタスクでSoTAに匹敵する性能 3
Introduction ベクトルを利用した文書検索には長い歴史がある ← Bag-of-Words, Latent Semantic Indexing(LSI) 近年はニューラル言語モデルで単語埋め込みを学習
単語ではなく文, 段落, 文書の分散表現も注目されている 4
vs. DoCoV doc2vecやFastSentは 単語と共通の空間 共分散は単語の密度の 形状を符号化 5
vs. DoCoV doc2vecやFastSentは学習に時間がかかる DoCoV(共分散)の計算は並列性が高く高速に行える 6
DoCoV Document Observation Matrix d次元の単語埋め込みとn単語の文書において ∈ ×と定義 (行は単語、列は埋め込みの各次元) 7
DoCoV Covariance Matrix 8
DoCoV Vectorized representation 9
Evaluation IMDB movie reviewsの分類性能によって 単語ベクトルによる変化を評価 ベクトルを線形SVMで分類 1つのレビューは複数の文で構成される
Train/Test/Unlabeled : 25K/25K/50K 事前学習済みのword2vec, GloVeと、 TrainとUnlabeledで学習したword2vecで比較 10
Result 11
Result 12
Result 13
Result 14
Evaluation 文の意味関連性データセットSICK, STS 2014で 文書ベクトルを評価 事前学習済みの単語埋め込みを使用 (dim=300)
Pearson correlationとSpearman correlationで評価 15
Result 学習が必要な他手法と匹敵するような結果 16
Evaluation Google newsで事前学習済みの単語埋め込みを使用 Movie Reviews(MR), Subjectivity(Subj), Customer Reviews(CR),
TREC Question(TREC)を データセットとして使用 17
Result 18
Result 19
Result 20
Result 21
Conclusions 文、段落、文書の新たなベクトル表現方法を提案 他手法のような反復の学習を必要としない Supervised, Unsupervisedのタスクにおいて その有用性を確認 22