Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Multi Scale Recognition with DAG-CNNs
Search
tereka114
March 16, 2022
Programming
0
120
Multi Scale Recognition with DAG-CNNs
第32回 コンピュータビジョン勉強会@関東 ICCV2015論文読み回の発表資料です。
Multi Scale Recognition with DAG-CNNs
tereka114
March 16, 2022
Tweet
Share
More Decks by tereka114
See All by tereka114
トラブルがあったコンペに学ぶデータ分析
tereka114
2
1.3k
Harnessing Large Language Models for Training-free Video Anomaly Detection
tereka114
1
1.5k
KDD2023学会参加報告
tereka114
2
540
Prompting Large Language Models with Answer Heuristics for Knowledge-based Visual Question Answering
tereka114
0
360
Mobile-Former: Bridging MobileNet and Transformer
tereka114
0
1.1k
DER: Dynamically Expandable Representation for Class Incremental Learning
tereka114
0
180
Jupyter Notebookを納品した話
tereka114
0
380
How to use scikit-image for data augmentation
tereka114
0
210
面倒くさいこと考えたくないあなたへ〜Tpotと機械学習〜
tereka114
0
240
Other Decks in Programming
See All in Programming
最近のVS Codeで気になるニュース 2025/01
74th
1
100
traP の部内 ISUCON とそれを支えるポータル / PISCON Portal
ikura_hamu
0
180
Lookerは可視化だけじゃない。UIコンポーネントもあるんだ!
ymd65536
1
130
ESLintプラグインを使用してCDKのセオリーを適用する
yamanashi_ren01
2
240
毎日13時間もかかるバッチ処理をたった3日で60%短縮するためにやったこと
sho_ssk_
1
550
Androidアプリのモジュール分割における:x:commonを考える
okuzawats
1
280
2025.01.17_Sansan × DMM.swift
riofujimon
2
560
はてなにおけるfujiwara-wareの活用やecspressoのCI/CD構成 / Fujiwara Tech Conference 2025
cohalz
3
2.8k
PHPUnitしか使ってこなかった 一般PHPerがPestに乗り換えた実録
mashirou1234
0
420
「とりあえず動く」コードはよい、「読みやすい」コードはもっとよい / Code that 'just works' is good, but code that is 'readable' is even better.
mkmk884
6
1.4k
Azure AI Foundryのご紹介
qt_luigi
1
210
asdf-ecspresso作って 友達が増えた話 / Fujiwara Tech Conference 2025
koluku
0
1.4k
Featured
See All Featured
Responsive Adventures: Dirty Tricks From The Dark Corners of Front-End
smashingmag
251
21k
Code Review Best Practice
trishagee
65
17k
YesSQL, Process and Tooling at Scale
rocio
170
14k
No one is an island. Learnings from fostering a developers community.
thoeni
19
3.1k
Helping Users Find Their Own Way: Creating Modern Search Experiences
danielanewman
29
2.4k
VelocityConf: Rendering Performance Case Studies
addyosmani
327
24k
Cheating the UX When There Is Nothing More to Optimize - PixelPioneers
stephaniewalter
280
13k
Chrome DevTools: State of the Union 2024 - Debugging React & Beyond
addyosmani
3
240
"I'm Feeling Lucky" - Building Great Search Experiences for Today's Users (#IAC19)
danielanewman
226
22k
The Web Performance Landscape in 2024 [PerfNow 2024]
tammyeverts
3
360
Typedesign – Prime Four
hannesfritz
40
2.5k
Writing Fast Ruby
sferik
628
61k
Transcript
Multi Scale Recognition with DAG-CNNs 2016年2月6日 山本 大輝(@tereka114)
Self Introduction 1. 山本 大輝 2. Acroquest Technology株式会社(2015.4.1〜) 3. システム系のエンジニア
4. Twitter(@tereka114) 5. CV勉強会 参加2回目です。(発表1回目) 6. Blog:「のんびりしているエンジニアの日記」 1. http://nonbiri-tereka.hatenablog.com/
Outline 1. 論文の概要 2. Convolutional Neural Networkとその後の比較 3. 特徴マップのScaleの比較 4.
DAG-CNNs 5. Experiments 6. Conclusion
Outline 1. 論文の概要 2. Convolutional Neural Networkとその後の比較 3. 特徴マップのScaleの比較 4.
DAG-CNNs 5. Experiments 6. Conclusion
なんでこの論文? 1. CNNって特徴量抽出しているって言われているが、それを 検証していたのが興味深い。 2. DAGはDirected acyclic graph(有向非循環グラフ)です。 1. 最近、複雑な構造なネットワークが多い
2. レイヤーを統合していく考え方が増えてきている。
論文の概要 1. 複数のレイヤーの結果を使うDAG-CNNsを実装、実験した。 2. 複数のレイヤーの結果を使うことにより、high,middle,low- levelな特徴量を活用した。 3. DAG-CNNsにより、MIT67,Scene15,SUN397のエラー率を下 げた。
Outline 1. 論文の概要 2. Convolutional Neural Networkとその後の比較 3. 特徴マップのScaleの比較 4.
DAG-CNNs 5. Experiments 6. Conclusion
Convolutional Neural Networkの比較
Convolutional Neural Networkの比較
1PでわかるCNN LeCun, Y., Bottou, L., Bengio, Y., and Haffner, P.
(1998d). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324
従来までの Convolutional Neural Network 1. Single Output CNN 1. 最後のレイヤーのみの情報を使う。
2. 非常にシンプルな構造である。 2. Multi Scale CNN 1. 結合しているのみなので、非常に高次元のデータを生成する。 2. 学習が難しく、過学習が生じやすい。
Outline 1. 論文の概要 2. Convolutional Neural Networkとその後の比較 3. 特徴マップのScaleの比較 4.
DAG-CNNsの解説 5. Experiments 6. Conclusion
レイヤーにおける特徴差分の検証 1. 情報検索を用いた手法で検証し、query画像からの距離 を計算し近い7画像を出力する。 2. 得たレイヤーの出力をSupport Vector Machine(SVM, One-VS-All)で分類した。 3.
各レイヤーの出力で分類を実施し、その際の結果をK x N で可視化し、ソートを実施した。
情報検索を用いた手法 1. 情報検索を実施し、各レイヤーで取得できる出力を元に 検索した。 2. 手順は以下の通り 1. 学習して、出力した各層の出力のL2距離を求めた。 2. 距離の近い上位K(=7)件を抽出する。
情報検索を用いた手法
特徴量のレベルによる差分 クエリ
複数のレイヤーの結果から予測 1. 複数のレイヤーの結果に対して予測し、グラフ化した。 2. 各レイヤーの出力に対してSVMでOne vs Allの手法により、 Kクラスに分類するタスクを実施した。 3. High
Lavelな特徴ほど、良い結果を示している。
各レイヤーの情報を用いた分類結果
複数のレイヤーの結果から予測 1. 各クラスについて、分類を実施した。 2. 分類結果について、可視化を実施し、ヒートマップとした。 その上で各層ごとに最も高い正答率にてソートした。
各層とクラスの正解率のマップ 最も多いクラス
Outline 1. 論文の概要 2. Convolutional Neural Networkとその後の比較 3. 特徴マップのScaleの比較 4.
DAG-CNNs 5. Experiments 6. Conclusion
DAG-CNNs
DAG-CNNsの学習 • 今回は以下の式を最適化する。 入力 教師 誤差関数 Convolutionの重み K=Layer数、x = 学習データ
y = 学習ラベル
DAG-CNNsの学習 • 今回は以下の式を最適化する。 入力 教師 誤差関数 Convolutionの重み K=Layer数、x = 学習データ
y = 学習ラベル BPで解く
DAG-CNNs
DAG-CNNsの学習 Convolution Layerの入力 出力
DAG-CNNsの勾配の計算方法 Chain Rule
Vanishing Gradient Problem 1. 低層レイヤーまでに勾配情報が消えている問題のこと。 2. 通常、深くなっていくと勾配情報が消えていくとされている。 1. 直接つないでいるので低層も問題なく学習できる。
Gradient based learning
Outline 1. 論文の概要 2. Convolutional Neural Networkとその後の比較 3. 特徴マップのScaleの比較 4.
DAG-CNNs 5. Experiments 6. Conclusion
Experiments 1. 分類データセットのAccuracyによる評価を実施した。 1. SUN397 1. 100Kの画像と397カテゴリー、景観画像の分類 2. MIT67 1.
15Kの画像と67カテゴリー、室内画像の分類 3. Scene15 1. 外と中の景観画像
Evaluation
MIT67のClassification Result
Outline 1. 論文の概要 2. Convolutional Neural Networkとその後の比較 3. 特徴マップのScaleの比較 4.
DAG-CNNs 5. Experiments 6. Conclusion
Conclusion 1. Low LevelからHigh Levelまでの特徴について、様々な実 験を用い、検証した。 2. 上記から、ネットワークDAG-CNNsを提唱した。 1. 各層の活性化関数の出力を合計する。
3. 実験より、特にMIT67によるデータ・セットに対し、成果を あげることができた。