Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介: Attention is not Explanation
Search
Yumeto Inaoka
March 19, 2019
Research
520
0
Share
文献紹介: Attention is not Explanation
Yumeto Inaoka
March 19, 2019
More Decks by Yumeto Inaoka
See All by Yumeto Inaoka
文献紹介: Quantity doesn’t buy quality syntax with neural language models
yumeto
1
210
文献紹介: Open Domain Web Keyphrase Extraction Beyond Language Modeling
yumeto
0
270
文献紹介: Self-Supervised_Neural_Machine_Translation
yumeto
0
190
文献紹介: Comparing and Developing Tools to Measure the Readability of Domain-Specific Texts
yumeto
0
200
文献紹介: PAWS: Paraphrase Adversaries from Word Scrambling
yumeto
0
190
文献紹介: Beyond BLEU: Training Neural Machine Translation with Semantic Similarity
yumeto
0
320
文献紹介: EditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing
yumeto
0
390
文献紹介: Decomposable Neural Paraphrase Generation
yumeto
0
250
文献紹介: Analyzing the Limitations of Cross-lingual Word Embedding Mappings
yumeto
0
260
Other Decks in Research
See All in Research
空間音響処理における物理法則に基づく機械学習
skoyamalab
0
270
LINEヤフー データサイエンス Meetup「三井物産コモディティ予測チャレンジ」の舞台裏-AlpacaTechパート
gamella
0
380
進学校の生徒にはア行の苗字が多いのか
ozekinote
0
350
生成的情報検索時代におけるAI利用と認知バイアス
trycycle
PRO
0
500
データサイエンティストをめぐる環境の違い2025年版〈一般ビジネスパーソン調査の国際比較〉
datascientistsociety
PRO
0
1.2k
2026-01-30-MandSL-textbook-jp-cos-lod
yegusa
1
1k
YOLO26_ Key Architectural Enhancements and Performance Benchmarking for Real-Time Object Detection
satai
3
400
Sequences of Logits Reveal the Low Rank Structure of Language Models
sansantech
PRO
1
180
Unified Audio Source Separation (Defense Slides)
kohei_1979
1
580
それ、チームの改善になってますか?ー「チームとは?」から始めた組織の実験ー
hirakawa51
0
1.1k
2026年1月の生成AI領域の重要リリース&トピック解説
kajikent
0
960
20年前に50代だった人たちの今
hysmrk
0
180
Featured
See All Featured
Statistics for Hackers
jakevdp
799
230k
Amusing Abliteration
ianozsvald
1
150
Fashionably flexible responsive web design (full day workshop)
malarkey
408
66k
Heart Work Chapter 1 - Part 1
lfama
PRO
5
35k
What's in a price? How to price your products and services
michaelherold
247
13k
Scaling GitHub
holman
464
140k
The Director’s Chair: Orchestrating AI for Truly Effective Learning
tmiket
1
150
Lessons Learnt from Crawling 1000+ Websites
charlesmeaden
PRO
1
1.2k
Lightning talk: Run Django tests with GitHub Actions
sabderemane
0
170
Understanding Cognitive Biases in Performance Measurement
bluesmoon
32
2.9k
Practical Orchestrator
shlominoach
191
11k
WENDY [Excerpt]
tessaabrams
10
37k
Transcript
Attention is not Explanation 文献紹介 2019/03/19 長岡技術科学大学 自然言語処理研究室 稲岡 夢人
Literature 2 Title Attention is not Explanation Author Sarthak Jain,
Byron C. Wallace Conference NAACL-HLT 2019 Paper https://arxiv.org/abs/1902.10186
Abstract Attentionは入力単位で重みを示す その分布が重要性を示すものとして扱われることがある → 重みと出力の間の関係は明らかにされていない 標準的なAttentionは意味のある説明を提供しておらず、 そのように扱われるべきでないことを示す
3
調査方法 1. 重みが重要度と相関しているか 2. 事実と反する重み設定が予測を変化させるか 4
Tasks Binary Text Classification Question Answering (QA)
Natural Language Inference (NLI) 5
Datasets 6
Results 7
Definitions 出力結果の比較に使用する距離 Attentionの比較に使用する距離 8
Results Attentionの変化を大きくしても結果が変化しない → 出力への影響が小さい 9
Results DiabetesはPositiveのクラスにおいては影響が大きい → 高精度で糖尿病を示すトークンが存在するため 10
Adversarial Attention 出力を大きく変化させるようにAttentionを変化させる Attentionが少し変化しただけで出力が大きく変化するか ← Attentionの挙動を確認 12
Results 少しのAttentionの変化で出力が大きく変化している 13
Conclusions 重要度とAttentionの重みは相関が弱い 事実に反する重みは必ずしも出力を変化させない Seq2seqについては今後の課題とする 14