Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
(ICLR2023) Improving Deep Regression with Ordin...
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Shumpei Takezaki
April 23, 2025
0
37
(ICLR2023) Improving Deep Regression with Ordinal Entropy
Shumpei Takezaki
April 23, 2025
Tweet
Share
More Decks by Shumpei Takezaki
See All by Shumpei Takezaki
(Preprint) Diffusion Transformers with Representation Autoencoders
shumpei777
1
1.2k
(Blog post) Diffusion is spectral autoregression
shumpei777
3
1.2k
(Preprint) Diffusion Classifiers Understand Compositionality, but Conditions Apply
shumpei777
1
620
(ICLR2021) Score-Based Generative Modeling through Stochastic Differential Equations
shumpei777
1
620
(NeurIPS2024) Guiding a Diffusion Model with a Bad Version of Itself
shumpei777
0
25
(ICML2023) I2SB: Image-to-Image Schrödinger Bridge
shumpei777
0
37
Featured
See All Featured
10 Git Anti Patterns You Should be Aware of
lemiorhan
PRO
659
61k
Optimising Largest Contentful Paint
csswizardry
37
3.6k
Why Your Marketing Sucks and What You Can Do About It - Sophie Logan
marketingsoph
0
110
Navigating Weather and Climate Data
rabernat
0
140
Building Adaptive Systems
keathley
44
3k
Typedesign – Prime Four
hannesfritz
42
3k
The Impact of AI in SEO - AI Overviews June 2024 Edition
aleyda
5
770
Redefining SEO in the New Era of Traffic Generation
szymonslowik
1
240
Breaking role norms: Why Content Design is so much more than writing copy - Taylor Woolridge
uxyall
0
200
Ecommerce SEO: The Keys for Success Now & Beyond - #SERPConf2024
aleyda
1
1.8k
<Decoding/> the Language of Devs - We Love SEO 2024
nikkihalliwell
1
150
Ten Tips & Tricks for a 🌱 transition
stuffmc
0
88
Transcript
回帰タスクにおける損失関数比較してみた 2024/11/20@論文読み会 Shumpei Takezaki (D1, Uchida Lab.)
• Improving Deep Regression with Ordinal Entropy • MSEで獲得した特徴量はエントロピーの観点からCEに劣ることを理論的に解明 •
クラス順序を考慮した特徴量正則化の提案 紹介する論文 1 Zhang+, ICLR2023 With MSE With CE Entropy Epoch With MSE With CE
• 回帰タスク (入力に対して数値を予測.例:年齢推定) • 回帰: 連続値ラベルの推定.MSE Lossを使用 • 分類: 離散値クラスへの分類.CE
lossを使用 回帰タスクの解き方は2通りあるねん 2 𝑓reg 47 57 𝑦pred 𝑦GT MSE:= ||𝑦pred − 𝑦GT ||2 𝑓cls ො 𝑦pred ො 𝑦GT 回帰 分類 CE:= −ො 𝑦GT log ො 𝑦pred MSE … 57 0 … 100 … … 47 CE 46 48 … 離散化
• 回帰タスク (入力に対して数値を予測.例:年齢推定) • 回帰: 連続値ラベルの推定.MSE Lossを使用 • 分類: 離散値クラスへの分類.CE
lossを使用 回帰タスクの解き方は2通りあるねん 3 𝑓reg 47 57 𝑦pred 𝑦GT MSE:= ||𝑦pred − 𝑦GT ||2 𝑓cls ො 𝑦pred ො 𝑦GT 回帰 分類 CE:= −ො 𝑦GT log ො 𝑦pred MSE … 57 0 … 100 … … 47 CE 46 48 … 離散化 直感に反して,分類で学習したほうが精度が高い↑ <
• 複数の研究によって報告.その理由はタスク依存として説明 “回帰<分類”問題: MSEよりCEの方が精度高い 4 [Cao+, IEEE Trans. Circuits Syst.
Video Technol., 2017] 深度推定 連続値の回帰より離散クラスへの分類が簡単 ターゲットラベルの値が揺らいでいる [Xiong+, ECCV, 2022] 群集カウント
• “特徴空間上”のエントロピーで差が生じていることを解明 • Ordinal Entropy (順序を考慮した正則化)を提案 なぜ”回帰<分類”問題が発生するのか?を解明 5
• 特徴空間上におけるデータ点間距離の総和 (=データの散らばり具合) “特徴空間上”のエントロピーって何? 6 ※ ユークリッド距離や類似度でもOK (と解釈) データ点 𝒛𝑖
をすべて足し合わせることで エントロピーを計算 Faivishevsky+, ICML2015
• CEではクラス内エントロピーの最小化&データ全体のエントロピーの最大化 CEでの特徴学習 (過去研究で提案) 7 Boudiaf+, ECCV2020 H(Z|Y)を 小さく H(Z)を
大きく クラス中心
• MSEではクラス内エントロピーの最小化のみ.. MSEでの特徴学習 8 証明は論文に譲るぜ H(Z|Y)を 小さく H(Z)を 大きく
• データ全体のエントロピーの最大化する正則化を足せば良いのでは? 理論的な観点から考えられる改善案 9 H(Z|Y)を 小さく H(Z)を 大きく +𝑯(𝒁) 追加
• データ全体のエントロピーの最大化のために順序を考慮した正則化を提案 • データ間距離をクラスの距離で重み付け • (追加で) クラス内エントロピーの最小化するような正則化 提案手法: Ordinal Entropy
(特徴空間の正則化) 10
• 深度推定データセットで従来手法と比較 回帰タスクでの性能比較 11
• 深度推定データセットで従来手法と比較 回帰タスクでの性能比較 12 SOTA手法にOrdinal Entropy追加で精度改善!
• Ordinal Entropyの効果を合成データセット&深度推定で比較 アブレーションスタディ 13
• Ordinal Entropyの効果を合成データセット&深度推定で比較 アブレーションスタディ 14 エントロピーの広がりのみを考慮した正則化でも精度改善
• Ordinal Entropyの効果を合成データセット&深度推定で比較 アブレーションスタディ 15 順序を考慮した正則化&クラス内エントロピーの最小化を 追加することでさらなる精度改善
• Ordinal Entropyの追加によりデータ分布の広がりが改善 特徴量可視化による比較 16 順序どおりに分布&データが広がっている
特徴空間上のエントロピーで比較 17 MSE + ℒ𝑑 CE (256 class) MSE +
ℒ𝑑 +ℒ𝑡 MSE 正則化ℒ𝑑 によってエントロピーが向上
• 目的: なぜ”回帰<分類”問題が発生するのか?を解明 • 理論的な結論: 特徴空間上のエントロピーに違いを発見 • 手法: Ordinal Entropy
(順序を考慮した正則化)を提案 • 結果: 回帰モデルへの導入で精度改善を実現 • 感想: • 損失関数の差を特徴学習の差として捉えるという方法が新鮮 • 複数の解き方があるOrdinal classification (Soft label, K-rankなど)を統一的な視点から 比較できるかも? • (完全に理解できていないが) 理論パートは仮定が多い印象 • 分類モデルとの比較がないので,結局はCEでの学習が優位?? まとめ 18