Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
データセットシフト・Batch Normalization
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Taro Nakasone
September 05, 2025
Research
19
0
Share
データセットシフト・Batch Normalization
※過去に作成した資料の内部共有用の掲載です
Taro Nakasone
September 05, 2025
More Decks by Taro Nakasone
See All by Taro Nakasone
[輪講] Transformer(大規模言語モデル入門第2章)
taro_nakasone
0
38
次元削減・多様体学習 /maniford-learning20200707
taro_nakasone
2
1.8k
論文読み:Identifying Mislabeled Data using the Area Under the Margin Ranking (NeurIPS'20) /Area_Under_the_Margin_Ranking
taro_nakasone
0
200
Other Decks in Research
See All in Research
一般道の交通量減少と速度低下についての全国分析と熊本市におけるケーススタディ(20251122 土木計画学研究発表会)
trafficbrain
0
190
R&Dチームを起ち上げる
shibuiwilliam
1
210
A History of Approximate Nearest Neighbor Search from an Applications Perspective
matsui_528
1
230
データサイエンティストの業務変化
datascientistsociety
PRO
0
330
姫路市 -都市OSの「再実装」-
hopin
0
1.7k
Aurora Serverless からAurora Serverless v2への課題と知見を論文から読み解く/Understanding the challenges and insights of moving from Aurora Serverless to Aurora Serverless v2 from a paper
bootjp
6
1.6k
業界横断 副業コンプライアンス調査 三者(副業者・本業先・発注者)におけるトラブル認知ギャップの構造分析
fkske
0
1.2k
ブレグマン距離最小化に基づくリース表現量推定:バイアス除去学習の統一理論
masakat0
0
220
CyberAgent AI Lab研修 / Social Implementation Anti-Patterns in AI Lab
chck
6
4.2k
LiDARセキュリティ最前線(2025年)
kentaroy47
0
390
【SIGGRAPH Asia 2025】Lo-Fi Photograph with Lo-Fi Communication
toremolo72
0
140
ローテーション別のサイドアウト戦略 ~なぜあのローテは回らないのか?~
vball_panda
0
310
Featured
See All Featured
Evolution of real-time – Irina Nazarova, EuRuKo, 2024
irinanazarova
9
1.2k
Hiding What from Whom? A Critical Review of the History of Programming languages for Music
tomoyanonymous
2
630
How To Speak Unicorn (iThemes Webinar)
marktimemedia
1
420
Raft: Consensus for Rubyists
vanstee
141
7.4k
Stewardship and Sustainability of Urban and Community Forests
pwiseman
0
170
Build The Right Thing And Hit Your Dates
maggiecrowley
39
3.1k
Automating Front-end Workflow
addyosmani
1370
200k
<Decoding/> the Language of Devs - We Love SEO 2024
nikkihalliwell
1
170
Evolving SEO for Evolving Search Engines
ryanjones
0
170
HU Berlin: Industrial-Strength Natural Language Processing with spaCy and Prodigy
inesmontani
PRO
0
300
The MySQL Ecosystem @ GitHub 2015
samlambert
251
13k
Leo the Paperboy
mayatellez
6
1.6k
Transcript
データセットシフト 仲宗根太朗・櫻井研究室 学会名・セッション名・発表年月日・開催場所
はじめに ◼以下のデータシフトの問題設定がある ⚫Covariate Shift ⚫Target Shift ⚫Concept Shift ⚫Sample Selection
Bias ⚫Domain Shift ◼ただし,それそれの問題が必ずしも独立ではない
はじめに ◼以下のデータシフトの問題設定がある ⚫Covariate Shift ⚫Target Shift ⚫Concept Shift ⚫Sample Selection
Bias ⚫Domain Shift ◼ただし,それそれの問題が必ずしも独立ではない
Covariate Shift ◼定義 学習時とテスト時で入力変数の周辺分布が異なるという問題設定
Target Shift ◼定義 学習時とテスト時で出力変数の周辺分布が異なるという問題設定
Concept Shift ◼定義 学習時とテスト時で条件付き確率分布が異なるという問題設定
Sample Selection Bias ◼定義 観測データをデータセットに含めるかどうかを決める隠れた関数ξ が存在し,この関数が学習時とテスト時で異なるという問題設定
Domain Shift 潜在的に同じものを説明しているにも関わらず,計測技術や環境の違い などの影響で変数が異なってしまう問題設定
対策手法 ◼以下のような対策手法がある ⚫Batch Normalization
Batch Normalization ◼解決したい問題 − Internal Covariate Shift ⚫深層モデルにて,インプットの分布がころころ変わる ◼解決方法 ⚫レイヤごとのインプットを正規化しようという発想
⚫ただし,パラメータ更新の度に学習データ全体をネットワークに 流して,各レイヤのインプットを求め正規化を行うのは効率悪い ⚫そこでミニバッチごとの統計量を使って,ミニバッチごとに簡易 的な正規化を行う
Batch Normalization ◼解決したい問題 − Internal Covariate Shift ⚫深層モデルにて,インプットの分布がころころ変わる ◼解決方法 ⚫レイヤごとのインプットを正規化しようという発想
⚫ただし,パラメータ更新の度に学習データ全体をネットワークに 流して,各レイヤのインプットを求め正規化を行うのは効率悪い ⚫そこでミニバッチごとの統計量を使って,ミニバッチごとに簡易 的な正規化を行う
Batch Normalization ◼解決したい問題 − Internal Covariate Shift ⚫深層モデルにて,インプットの分布がころころ変わる ◼解決方法 ⚫レイヤごとのインプットを正規化しようという発想
⚫ただし,パラメータ更新の度に学習データ全体をネットワークに 流して,各レイヤのインプットを求め正規化を行うのは効率悪い ⚫そこでミニバッチごとの統計量を使って,ミニバッチごとに簡易 的な正規化を行う
Batch Normalization ◼解決したい問題 − Internal Covariate Shift ⚫深層モデルにて,インプットの分布がころころ変わる ◼解決方法 ⚫レイヤごとのインプットを正規化しようという発想
⚫ただし,パラメータ更新の度に学習データ全体をネットワークに 流して,各レイヤのインプットを求め正規化を行うのは効率悪い ⚫そこでミニバッチごとの統計量を使って,ミニバッチごとに簡易 的な正規化を行う
Batch Normalization ◼アルゴリズム
Batch Normalization ◼ミニバッチごとの平均分散を計算する
Batch Normalization ◼正規化を行う
Batch Normalization ◼正規化を行う 分母に𝜖を加えていますが、これ は微小値を表し、𝝈𝑩 𝟐 が小さい場 合に計算を安定されるため
Batch Normalization ◼レイヤの非線形性に対応させる調整
Batch Normalization ◼平均と分散の調節 単純にෞ 𝒙𝒊 をインプットとすると, 本来レイヤが持つ非線形性の表現 力を失っている可能性がある
Batch Normalization ◼例えば,シグモイド関数の場合
Batch Normalization ◼例えば,シグモイド関数の場合 インプットが-1から1の範囲で はほぼ線形になっている
Batch Normalization ◼この解決策として
Batch Normalization ◼以下のように横にシフト,スケール変化すれば良い
Batch Normalization ◼それを踏まえて,
Batch Normalization ◼平均に対応するパラメータ𝜷と分散に対応する𝜸を導入
Batch Normalization ◼平均に対応するパラメータ𝜷と分散に対応する𝜸を導入 ෞ 𝒙𝒊 を𝜷の分だけ横にシフト, 𝜸でスケールを変更できる.