Upgrade to Pro — share decks privately, control downloads, hide ads and more …

統計的意思決定論の入門

Avatar for hayata-yamamoto hayata-yamamoto
July 23, 2025
15

 統計的意思決定論の入門

このコンテンツはAIによって作成されています

Avatar for hayata-yamamoto

hayata-yamamoto

July 23, 2025
Tweet

Transcript

  1. 本日の内容 統計的意思決定論の基礎から応用まで  理論編  応用編 理論編:統計的意思決定の枠組み 応用編:統計的意思決定論の実際 1 統計的意思決定論とは

    2 基本的枠組み(標本空間、決定空間、決定関数) 3 損失関数とリスク関数 4 ベイズ的意思決定 5 ミニマックス原理 6 十分統計量 7 不偏推定量とその性質 8 漸近理論(大標本特性) 9 品質管理への応用 10 医療診断への応用 11 機械学習への応用 12 金融への応用 13 まとめと統一的視座
  2. 統計的意思決定論とは ワルドの理論 不確実性下で得られたデータに基づき最適な行動を選択す るための統計学的理論 基本思想  データに基づく意思決定の数学的枠組み  推定・検定を統一的に扱う 

    不確実性を定量化して最適行動を導出  ワルド, A. (1950) 「Statistical Decision Functions」 推定・検定の統一理論として提唱 統計的意思決定論の位置づけ 統計的推定や仮説検定といった古典的課題は意思決定問題の特殊ケースとして統一的 に記述可能 例えば: 点推定 → パラメータの値を「決定」する問題 仮説検定 → 仮説を「採択/棄却」と決定する問題 従来の統計学  推定論  検定論  区間推定 統計的意思決定論 上記を包含する 一般的な枠組み  意思決定としての統計的推論 データx から行動d への写像(決定関数δ )を最適化する問題 δ: 𝒳 → 𝒟 → 損失関数・リスクの 最小化問題
  3. 基本的枠組み:標本空間・決定 空間・決定関数 基本要素  標本空間 :データ のとりうる集合  決定空間 :とりうる行動

    の集合  決定関数 :観測から行動への写像 決定関数の役割 データ  行動 「観測 を得たときに選択する行動 」を与えるルール 決定関数の一般形: 統計的意思決定の具体例 点推定問題 標本空間: データ の空間 決定空間: (パラメータ空間) 決定関数: 推定量 例:標本 から母平均 を推 定する問題では、 という決定関数を 採用 仮説検定問題 標本空間: データ の空間 決定空間: 決定関数: 検定関数 例: 検定では、検定統計量 が臨界値を超え たら帰無仮説を棄却するというルールを採用 統一的な視点 あらゆる統計的推測は「データを基に行動を選択する」という視点で捉えられる  推定問題  検定問題  分類問題  経済的意思決定 X x D d δ : X → D x d = δ(x) x d δ : X → D x D = Θ (x) θ ^ x = (x ​ , ..., x ​ ) 1 n μ ​ (x) = μ ^ x ˉ x D = { 採択, 棄却} ϕ(x) t t
  4. 損失関数とリスク関数 損失関数の定義 真のパラメータθ の下で決定dを選択した場合の損失(不利 益)を表す非負の関数 L(θ, d) ≥ 0 代表的な損失関数

     二乗誤差損失: L(θ, d) = (θ - d)²  絶対誤差損失: L(θ, d) = |θ - d|  0-1損失: L(θ, d) = 1_{θ≠d} リスク関数の定義 パラメータθ の下で決定関数δ を適用したときの平均損失 R(θ, δ) = E_θ[L(θ, δ(X))] リスク関数と期待損失 リスク関数は決定関数δ による「平均的な損失の大きさ」を表し、性能評価指標として 機能します 二乗誤差損失の例: R(θ, δ) = E_θ[(θ - δ(X))²] これは推定の分野で言う平均二乗誤差(MSE)に他なりません 損失関数の選び方  問題の性質に応じて設定  対称性や単調性を考慮  数学的扱いやすさも重要 意思決定のプロセス 1. 損失関数を定義 2. リスク関数を計算 3. リスク最小の決定関数を選択  最適な意思決定 リスク関数による決定則の評価 異なる決定関数δ₁ とδ₂ のリスクを比較することで優劣を判定できます R(θ, δ₁) 決定関数1のリスク vs R(θ, δ₂) 決定関数2のリスク すべてのθ に対してR(θ, δ₁) ≤ R(θ, δ₂) なら、 δ₁ はδ₂ を支配する(より良い決定関数である)
  5. ベイズ的意思決定 事前知識を活用した意思決定 パラメータに事前分布を仮定し、その下での平均リスクを 最小化する決定方法 ベイズ的枠組みの要素  事前分布 π(θ)  平均リスク(ベイズリスク)

     事後分布 π(θ|x)  ベイズ解(最適決定関数)  ベイズ的アプローチの特徴 パラメータの不確実性を確率分布として定量化し、主観的信 念を組み込める 平均リスク(ベイズリスク) パラメータに事前分布π(θ) を設定し、その下でのリスク関数の期待値 ρ(π, δ) = ∫ R(θ, δ)π(θ)dθ ベイズ解δ はこの平均リスクを最小化する決定関数 ベイズ的意思決定のプロセス 事前分布 π(θ)  データ観測 x  事後分布 π(θ|x)  事後期待損失の最小化 最適な決定d の選択 具体例:点推定問題 問題設定: パラメータθ の点推定 二乗誤差損失: L(θ,d)=(θ-d)^2 事前分布π(θ) を仮定 ベイズ解: 事後分布の期待値(事後平均) δ (x) = E[θ|x] 期待二乗誤差を最小化  完全類定理 全ての許容可能な決定則は、何らかの事前分布に対するベイズ解として表現できる Θ * π *
  6. ミニマックス原理 最大リスクの最小化 最悪の場合のリスクを最小にする保守的な戦略 ミニマックス基準  最大リスクを最小化  事前分布不要  最悪ケースに備える

    数学的表現 min max R(θ, δ) 「最悪の場合でも最小の損失」を保証する戦略 ミニマックス決定法 パラメータについての事前情報が無い中で、「最悪の場合の損失」を最小にする保守 的な戦略を採用します。 具体的な意味: どんなパラメータ値θ が真でも、最大リスクができるだけ小さい決定関数δ *を選 ぶ 事前分布を仮定できない場合や最悪の事態を重視する場合に適切 ワルドの定理 ミニマックス解はある"最も不利な"事前分布に対するベイズ解になっていることが示 されています。  この「最も不利な事前分布」とは、各決定則のベイズリスクを最大化するような分布のこと です。 ベイズ基準との関係  ミニマックス解は特定の事前分布のベイズ解として表現可能  ベイズは平均リスク最小化、ミニマックスは最大リスク最小化  理論的に密接な関係がある 応用例 裁判の有罪判定のように「最大の過誤を抑える」ことが重視される場面ではミニマッ クス戦略が合理的 δ θ
  7. 十分統計量 定義 統計量T(X)を知るだけでデータXに関するパラメータθ の情 報が「十分」である場合に、T(X)を十分統計量と呼ぶ 形式的定義 統計量T(X)が与えられた下でのXの条件付き分布がθ に依 存しない場合: P(X

    = x | T(X) = t, θ) が θ に依存しない 直感的理解  十分統計量はデータ中のパラメータ情報を余すところ なく要約した統計量 十分統計量の例と応用 具体例:二項分布 n回の独立試行で成功回数kを数える問題: 個々の結果(どの試行が成功か)より「成功回数k」だけで母数pの推定に十分 k はp に関する十分統計量 データ:SFSFSF → 十分統計量:k=3(成功回数) Rao–Blackwellの定理 任意の決定関数を十分統計量に基づく決定関数で改善できる可能性がある  推定量δ(X) から十分統計量T(X) に基づく推定量E[δ(X)|T(X)] を構成すると、リスク (MSE)が小さくなる 意思決定問題での意義  次元削減:高次元データから低次元の十分統計量へ要約することで計算効率化  効率的探索:最適な決定則は十分統計量に依存する決定関数に限定して探索できる  性能向上:十分統計量に基づくことでリスクを減少させ、より良い意思決定が可能 十分性の原理  最適な決定則を探索する際、十分統計量に依存する決定関数だけを考慮すれば十分
  8. 不偏推定量とその性質 不偏推定量の定義 推定量の期待値が真のパラメータに一致する性質を持つ推 定量 E [θ̂(X)] = θ 具体例 

    標本平均 X̄は母平均μ の不偏推定量  修正標本分散 s²= Σ (X-X̄)²/(n-1)は母分散σ ²の不偏推 定量 MSEとの関係 平均二乗誤差(MSE)は不偏性を評価する重要指標 MSE分解 MSE(θ̂) = Var(θ̂) + [Bias(θ̂)]² 不偏推定量では Bias = 0 となり、 MSE = 分散 となる 最良不偏推定量の理論 不偏推定量の中で最も精度が良い(分散が最小の)推定量を探す。 一様最小分散不偏推定量 (UMVU推定量) すべてのパラメータ値θ ∈Θ で他のどの不偏推定量よりも分散が小さい推定量 UMVU推定量の特性  「不偏性」と「最小分散」を両立  常に存在するとは限らない  統計量の完備性・十分性と関連 Lehmann–Schefféの定理  十分完備統計量の関数として表せる不偏推定量は、UMVU推定量である。 この定理により十分統計量から効率の良い推定量を構築できる 漸近的性質 小標本での不偏性  厳密な不偏性  UMVU推定量 大標本での性質  漸近不偏性  漸近有効性 「例:最尤推定量は有限標本で偏りがあるが 標本サイズが大きくなると不偏性・有効性を満たす」 θ i
  9. 漸近理論(大標本特性) 大数の法則 標本サイズ の増大に伴い標本統計量が真の値へと収束す る性質 標本平均の収束 (確率収束)  が大きいほど真の平均に近づく 

    例:コイン投げ試行での表の出る割合  収束の確率的保証 では では 中心極限定理 標本和(や標本平均)の分布が大標本では正規分布に近似 正規近似: ※母集団分布の形に関わらず正規分布に収束 漸近分布の応用  信頼区間の構成(正規近似に基づく)  検定統計量の分布近似( 検定、 検定)  最尤推定量の漸近性質(一致性・漸近正規性) 最尤推定量の漸近的性質  漸近不偏性: ( )  漸近正規性:  漸近有効性:分散がクラメール・ラオの下界に達する ※ はフィッシャー情報量を表す n ​ X ˉ P μ n n = 10 P(∣ − X ˉ μ∣ < 0.1) ≈ 65.6% n = 100 P(∣ − X ˉ μ∣ < 0.1) ≈ 96.8% ​ ( − n X ˉ μ) ​ d N(0, σ ) 2 t χ2 E[ ​ ] → θ ^ n θ n → ∞ ( ​ − n θ ^ n θ) ​ d N(0, I(θ) ) −1 I(θ)
  10. 応用例①:品質管理 品質管理における意思決定 製造業の品質管理プロセスでは、統計的意思決定論を応用 して合理的な判断を行う 主な応用場面  受け入れ検査(合否判定)  統計的工程管理(SPC) 

    異常検知・分類モデル OC曲線(特性曲線) 検査プランの性能評価指標。不良率に対する合格確率の関数。 統計的意思決定論の品質管理への適用 製造業ではデータに基づく合理的判断が品質と効率を左右します。 受け入れ検査の統計的定式化: 決定空間: D = \{ 合格, 不合格\} 損失関数: 誤った判断によるコストを定量化 最適決定則: サンプル中の不良品数に基づく閾値判定 統計的工程管理(SPC)  管理図による監視  異常パターンの検出  工程能力指数の評価 工程の「管理状態にある」vs「異常状態」の判 定は統計的仮説検定の応用 異常検知モデル 閾値設定と最適意思決定 閾値選択は「偽陽性(誤報)のコスト」と「偽陰性(見逃し)のコスト」のトレード オフ 例:不良品を見逃すコストが高い安全部品では、検出力を優先して閾値を低く設定  損失関数に基づく 最適バランス →  合理的な 閾値決定 1.0 0 不良率 合格確率 FPR TPR ROC曲線 異常検知モデルの性能評価
  11. 応用例②:医療診断 診断テスト判定 検査値に基づく「陽性/陰性」判断は統計的二項分類問題 診断の重要指標  感度:真陽性率(TPR)  特異度:真陰性率(TNR)  閾値設定:感度と特異度のトレードオフ

    混同行列 疾患あり 疾患なし 検査陽性 真陽性 (TP) 偽陽性 (FP) 検査陰性 偽陰性 (FN) 真陰性 (TN) 感度 = TP/(TP+FN) 特異度 = TN/(TN+FP) 統計的意思決定論の医療応用 医療診断では検査結果の不確実性を考慮して意思決定(診断・治療方針)を行う必要 がある 閾値設定の問題: 低い閾値→感度↑・特異度↓ (見落とし減・誤診増) 高い閾値→感度↓・特異度↑ (見落とし増・誤診減) ROC曲線 感度(TPR) 1-特異度(FPR) AUC ベイズ診断と最適閾値 事前確率(有病率)と検査精度から事後確率を計算 ベイズの定理 P( 疾患| 陽性) = P( 陽性| 疾患) × P( 疾患) / P( 陽性) 損失関数による最適閾値決定: 偽陰性コスト(見落とし)= C 偽陽性コスト(過剰診断)= C 最適閾値 = C /(C +C ) 臨床応用の実例  重篤な疾患(見落としリスク大) C >> C → 低い閾値 感度重視(確実に検出) 例: がんスクリーニング  侵襲的治療を伴う診断 C > C → 高い閾値 特異度重視(誤診を減らす) 例: 手術適応判断 統計的意思決定論により、医療診断の意思決定プロセスを数理的に最適化することで 患者ごとのリスク・ベネフィットに合わせた個別化医療が可能になる FN FP FP FP FN FN FP FP FN
  12. 応用例③:機械学習 損失関数最小化としての機械学習 機械学習の多くのアルゴリズムは、本質的に損失関数を最 小化するプロセスとして解釈できる 統計的意思決定との関連  データから決定ルールを「学習」  期待リスク(汎化誤差)の最小化 

    バイアス・バリアンストレードオフ  理論的基盤 統計的学習理論はリスク最小化問題として 機械学習の理論的保証を提供する Vapnik-Chervonenkis理論: 有限サンプルでのリスク境界を定式化 機械学習における意思決定の枠組み 分類問題では、入力データx から最適なラベルy を予測する決定関数f を学習 損失関数の例: 0-1損失:誤分類に対して損失1 交差エントロピー損失:確率予測の対数損失 ヒンジ損失:SVMでのマージン最大化 モデル選択 ハイパーパラメータやモデル構造の選択も意思 決定問題  交差検証によるリスク評価  情報量規準(AIC、BIC等)  正則化による複雑性制御 ベイズ最適分類器 事後確率が最大のクラスを選択する分類器は、 0-1損失下で最適な決定則 f^*(x) = \argmax_y P(y|x) 機械学習における不確実性と意思決定 現代の機械学習では予測の不確実性も定量化し、より堅牢な意思 決定をサポート  ベイズ深層学習  信頼性スコアに基づく判断  人間とAIの協調的意思決定  統計的意思決定理論の 現代的応用 データ モデル 予測 訓練誤差 経験的リスク 汎化誤差 期待リスク
  13. 応用例④:金融 信用リスク評価 統計モデルによる顧客データの分析と貸出可否の意思決定 意思決定問題としての金融  ポートフォリオ最適化  リスク・リターン分析  価格決定(デリバティブ等)

     決定理論の金融への貢献 不確実性を定量化し、リスクと収益のトレードオフを最適化 する数学的枠組み 金融における統計的意思決定 信用リスク評価では、顧客データに基づいて貸出可否や金利設定を決定する問題を統 計的に解決 信用スコアリングモデル: 顧客のX (属性)からp(default|X) を推定 期待損失 = p(default|X) × 貸倒額 閾値p* : p(default|X) < p* なら貸出 損失最小化の決定ルール p* = 機会利益 / ( 機会利益 + 貸倒損 失) ポートフォリオ最適化と決定理論 マルコビッツの平均分散モデル:  期待リターン最大化  リスク(分散)最小化 効用関数の最大化問題 U(w) = E[R_p] - \lambda \cdot Var[R_p] λ :リスク回避係数 機械学習と統計的意思決定 アルゴリズム取引では予測に基づく買い・売り の判断が統計的意思決定問題 ベイズ最適化の例 事前予測分布と取引コストから最適な取引タイミング を決定
  14. まとめと統一的視座 統計的意思決定論の意義 データに基づく意思決定を統一的に記述する数理的枠組み 統一的視座としての価値  損失関数・リスク最小化という共通言語  推定・検定・分類など多様な問題の統一的理解  不確実性下での合理的判断の基盤

    理論と応用の結節点  理論  応用 「最適な意思決定」という共通目標 理論から実践へ:統一的な解釈 統計的意思決定論は多様な応用分野に共通の指針を提供する 理論編の核心 損失関数・リスク関数 ベイズ的意思決定 ミニマックス原理 十分統計量 応用例 品質管理:閾値設定 医療診断:検査基準 機械学習:予測モデル 金融:リスク管理  共通原理:「リスク最小化」 実社会での合理的判断への貢献  客観的なデータと主観的判断の統合(ベイズ的枠組み)  最悪ケースへの対応(ミニマックス原理)  不確実性の定量的評価と意思決定への反映 結論:統計的意思決定論の展望  合理的判断  データ活用  知識創造 統計的意思決定論はデータ時代の合理的判断の基盤となる