Upgrade to Pro — share decks privately, control downloads, hide ads and more …

勾配ブースティングと決定木の話 / gradient boosting and decisio...

Sponsored · Your Podcast. Everywhere. Effortlessly. Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.

勾配ブースティングと決定木の話 / gradient boosting and decision trees

Avatar for kaityo256

kaityo256 PRO

April 23, 2026

More Decks by kaityo256

Other Decks in Education

Transcript

  1. 10 25 勾配ブースティング (1/4) {𝑥𝑖 , 𝑦𝑖 } 𝑦𝑖 =

    𝑓 𝑥𝑖 データセット 以下を満たす関数を作りたい 表現力が低い関数を組み合わせて表現力が高い関数を作る 𝑓 𝑥 ~ ሚ 𝑓𝐿 𝑥 = ෍ 𝑘=1 𝐿 𝑔𝑘 (𝑥) {𝑥𝑖 , 𝑦𝑖 } 𝑔1 (𝑥) {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓1 𝑥 } 𝑔2 (𝑥) 𝑔3 (𝑥) ・・・・ {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓2 𝑥 } レベル1関数の残差を学習 レベル1関数を学習 レベル2関数の残差を学習
  2. 11 25 勾配ブースティング (2/4) {𝑥𝑖 , 𝑦𝑖 } データセット ሚ

    𝑓1 𝑥 = 𝑔1 (𝑥) 弱いモデル(レベル1) 𝐶 = ෍ 𝑖 𝑦𝑖 − 𝑔1 𝑥𝑖 2 平均自乗誤差を最小化 このデータを ステップ関数の和で表現
  3. 12 25 勾配ブースティング (3/4) レベル1のフィッティング結果 レベル1残差 𝐶 = ෍ 𝑖

    𝑟𝑖 − ሚ 𝑓1 𝑥𝑖 2 𝑔2 (𝑥) をレベル1残差を減らすよう訓練 {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓1 𝑥 }
  4. 14 25 勾配と残差 (1/2) 𝑦𝑖 = 𝑓 𝑥𝑖 ሚ 𝑓𝐿

    (𝑥) = ෍ 𝑘=1 𝐿 𝑔𝑘 (𝑥|𝜃𝑘 ) 目的関数 レベルL近似 (𝑔1 (𝑥)から𝑔𝐿 (𝑥)まで使った近似関数) 𝐶𝐿 ( 𝑦𝑖 , ሚ 𝑓𝐿 (𝑥)) レベルLにおけるコスト関数 − ቤ 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥 レベルLにおけるコスト関数の負の勾配を 目的関数として𝑔𝐿+1 学習させる {𝑔0 , 𝑔1 , ⋯ , 𝑔𝐿 } → 𝑔𝐿+1 ブースティング 勾配に関する − ቤ 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥
  5. 15 25 勾配と残差 (2/2) 𝐶𝐿 = ෍ 𝑖 1 2

    𝑦𝑖 − ሚ 𝑓𝐿 𝑥𝑖 2 コスト関数として自乗誤差の和を採用すると − 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥𝑖 = 𝑦𝑖 − ሚ 𝑓𝐿 𝑥𝑖 コスト関数の負の勾配が残差に一致する 残差を目的関数としたブースティングは 勾配ブースティングの特別な場合
  6. 16 25 決定木 決定木:木構造を使った予測モデル Yes No Yes No 卵を生むか? 恒温動物か?

    哺乳類 鳥類 ・・・ ※この分類例がいい加減なのは許して
  7. 17 25 決定木による回帰 (1/2) • 𝑥1 : 最寄り駅までの時間(徒歩𝑥1 分) •

    𝑥2 : 部屋の広さ(𝑥2 𝑚2) 特徴量 • 𝑦: 妥当な家賃 目的変数 与えられた条件から「相場」を知りたい (𝑥1 , 𝑥2 ) → 𝑦
  8. 18 25 決定木による回帰 (2/2) 𝑥1 > 𝜃1 𝑥2 > 𝜃2

    𝑥2 > 𝜃3 Yes No Yes No Yes No 𝑦1 𝑦2 𝑦3 𝑦4 𝑥1 𝑥2 𝑦 決定木 ニューラルネットワーク 決定木は解釈しやすい 駅からどれくらい遠いか? 部屋はどれくらいの広さか? ノードの役割が 分かりづらい
  9. 19 25 決定木による分類 Class A: 円の内部 𝑥2 + 𝑦2 ≤

    𝑟2 Class B: 円の外部 𝑥2 + 𝑦2 > 𝑟2 線形な不等式(弱いモデル)だけを使って上記の分類問題を解きたい 𝑥 𝑦 𝑥 > 𝑥𝑐 , 𝑦 > 𝑦𝑐 (𝑥𝑖 , 𝑦𝑖 )
  10. 25 25 まとめ • アンサンブル学習とは、弱いモデルを複数組み合わ せて強いモデルを作る手法 • ブースティングとはアンサンブル学習の一種であり、 弱いモデルを直列に繋いで強いモデルを作る手法 •

    勾配ブースティングとは、一つ前の近似によるコス ト関数の負の勾配を次のモデルに学習させることで 全体のロスを下げる方法 (コスト関数として平均自乗誤差を採用すると前のモ デルの残差を学習させることに帰着) • 決定木とは単純な条件分岐を再帰的に繰り返すこと で分類や回帰を行う手法