$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
論文を読むコツ/Paper reading
Search
Yoshioka Lab (Keio CSG)
April 10, 2023
Research
0
330
論文を読むコツ/Paper reading
Yoshioka Lab (Keio CSG)
April 10, 2023
Tweet
Share
More Decks by Yoshioka Lab (Keio CSG)
See All by Yoshioka Lab (Keio CSG)
LiDARセキュリティ最前線(2025年)
kentaroy47
0
7
吉岡研究室紹介(2025年度)
kentaroy47
0
790
LLM時代の半導体・集積回路
kentaroy47
1
1k
高精度、高効率アナログCompute-in-Memory回路に向けて
kentaroy47
2
680
LiDARセキュリティ最前線
kentaroy47
0
700
”良い”データセット構築を考える
kentaroy47
4
1.1k
アナログが世界を救う? アナログコンピューティングの応用と課題
kentaroy47
0
970
A 0.7V 12b 160MS/s 12.8fJ/conv-step Pipelined-SAR ADC in 28nm CMOS with Digital Amplifier Technique
kentaroy47
0
100
吉岡研究室紹介(2022年度)
kentaroy47
0
3.3k
Other Decks in Research
See All in Research
Thirty Years of Progress in Speech Synthesis: A Personal Perspective on the Past, Present, and Future
ktokuda
0
130
データサイエンティストをめぐる環境の違い2025年版〈一般ビジネスパーソン調査の国際比較〉
datascientistsociety
PRO
0
290
Sat2City:3D City Generation from A Single Satellite Image with Cascaded Latent Diffusion
satai
4
360
「リアル×スキマ時間」を活用したUXリサーチ 〜新規事業を前に進めるためのUXリサーチプロセスの設計〜
techtekt
PRO
0
190
AIスーパーコンピュータにおけるLLM学習処理性能の計測と可観測性 / AI Supercomputer LLM Benchmarking and Observability
yuukit
0
110
EcoWikiRS: Learning Ecological Representation of Satellite Images from Weak Supervision with Species Observation and Wikipedia
satai
3
460
ロボット学習における大規模検索技術の展開と応用
denkiwakame
1
180
Multi-Agent Large Language Models for Code Intelligence: Opportunities, Challenges, and Research Directions
fatemeh_fard
0
110
Language Models Are Implicitly Continuous
eumesy
PRO
0
360
高畑鬼界ヶ島と重文・称名寺本薬師如来像の来歴を追って/kikaigashima
kochizufan
0
110
令和最新技術で伝統掲示板を再構築: HonoX で作る型安全なスレッドフロート型掲示板 / かろっく@calloc134 - Hono Conference 2025
calloc134
0
450
snlp2025_prevent_llm_spikes
takase
0
420
Featured
See All Featured
We Are The Robots
honzajavorek
0
110
[SF Ruby Conf 2025] Rails X
palkan
0
550
Why Mistakes Are the Best Teachers: Turning Failure into a Pathway for Growth
auna
0
25
Dealing with People You Can't Stand - Big Design 2015
cassininazir
367
27k
実際に使うSQLの書き方 徹底解説 / pgcon21j-tutorial
soudai
PRO
196
70k
How to make the Groovebox
asonas
2
1.8k
Building a A Zero-Code AI SEO Workflow
portentint
PRO
0
180
Jamie Indigo - Trashchat’s Guide to Black Boxes: Technical SEO Tactics for LLMs
techseoconnect
PRO
0
29
The Power of CSS Pseudo Elements
geoffreycrofte
80
6.1k
The Cult of Friendly URLs
andyhume
79
6.7k
What the history of the web can teach us about the future of AI
inesmontani
PRO
0
370
Winning Ecommerce Organic Search in an AI Era - #searchnstuff2025
aleyda
0
1.7k
Transcript
論文を読むコツ 吉岡 2023/4/10 Kentaro Yoshioka(1/17)
◼ 21世紀で最も有名な論文の一つ ◆Transformerを提案 ◆現在のChatGPTなどへ続く NLP分野の革命へリード 今回読む論文 Kentaro Yoshioka(2/17)
◼ 新規性(Novelty)が最も重要 ◆過去の論文と同じでは論文は採択(Accept)されない ◆過去研究で何がされていなかったのか、 自分の論文ではどう違うのかを明確に記述しなければならない ➢例:過去にはなかった脆弱性を明らかにした ➢例:新しい動作原理に基づくニューラルネットや回路ブロックを提案する ◆新しい事をする、というのも大事だが有効性を実証するのも重要 ⚫ 新しいだけで性能が下がってしまったら誰も使いたくはない
➢例:提案する技術により◦◦%性能を向上することを実験で確認 論文で重要なこと Kentaro Yoshioka(3/17)
◼ 引用数で論文のインパクトは測れる ◆多くの人が引用する、ということは多く読まれている/多く使われている ◼ https://scholar.google.co.jp/ 論文のインパクト Kentaro Yoshioka(4/17) Attention..論文を引用している記事も表示できる
◼ Abstract ◆論文を短くまとめたもの。何でこの論文が重要かはAbst.に煮詰められている。 ◼ イントロダクション ◆この論文はどのような問題を解決しようとしているか? ⚫ 例:より精度の高いニューラルネットがあると便利だよね ⚫ 例:より消費電力が小さい回路があると便利だよね
⚫ レベルのことを言っている。 ◼ Related works ◆過去に発表された論文をまとめつつ、本研究がどう違うかについて触れる (一般的な)論文の構成 Kentaro Yoshioka(5/17)
◼ Methodology(提案技術) ◆提案する技術の詳細について説明 ⚫ 〇〇機構を◎◎の目的で導入 ⚫ 例:今までなかったTransformerという アーキテクチャを提案。従来RNNよりも計算効率に優れる ◼ Evaluation(実験結果)
◆提案した技術の有用性を実証する ◆例:Transformerを使うとこんなに性能が良くなるよ (一般的な)論文の構成 Kentaro Yoshioka(6/17)
◼ 最初読んでもわからないことばかり ◼ まずは・・ ◆なぜその論文は評価されているのか?どこが面白いのか?を説明できるように読むと良い ⚫ 新規性、つまり従来との差に注目して読む ◆実験や実装の細かい部分は最初は読み飛ばして良い ◼ 教員も読み飛ばして読んでます
◆重要そうな論文だけ精読(細かい部分だけ読む)しています ◼ 有名な論文は日本語の解説があったりするのでググると良い 論文の読み方 Kentaro Yoshioka(7/17)