Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
機械学習の公平性と解釈可能性 / Fairness, Interpretability, an...
Search
Kon
July 28, 2018
Science
5
2.6k
機械学習の公平性と解釈可能性 / Fairness, Interpretability, and Explainability Federation of Workshops
https://connpass.com/event/92705/
Kon
July 28, 2018
Tweet
Share
More Decks by Kon
See All by Kon
Numerai はいいぞ / An encouragement of Numerai
yohrn
0
2.8k
M5 Forecasting 参加報告 / 143rd place solution of M5 Forecasting Accuracy
yohrn
1
1.3k
AutoML はお好きですか? / 8th place solution of AutoWSL 2019
yohrn
1
3.4k
3rd Place Solution of AutoSpeech 2019
yohrn
0
460
自然言語処理初心者が AutoNLP に挑戦した話 / 8th place solution of AutoNLP 2019
yohrn
0
930
AutoML パッケージの開発を円滑に進めたい / How to develop AutoML package
yohrn
1
3.6k
機械学習の再現性 / Enabling Reproducibility in Machine Learning Workshop
yohrn
9
3k
異常検知の評価指標って何を使えばいいの? / Metrics for one-class classification
yohrn
0
7k
35th ICML における異常検知に関する論文紹介 / Deep One-Class Classification
yohrn
0
8.4k
Other Decks in Science
See All in Science
学術講演会中央大学学員会いわき支部
tagtag
0
150
Online Feedback Optimization
floriandoerfler
0
1.2k
04_石井クンツ昌子_お茶の水女子大学理事_副学長_D_I社会実現へ向けて.pdf
sip3ristex
0
320
05_山中真也_室蘭工業大学大学院工学研究科教授_だてプロの挑戦.pdf
sip3ristex
0
330
非同期コミュニケーションの構造 -チャットツールを用いた組織における情報の流れの設計について-
koisono
0
250
Visual Analytics for R&D Intelligence @Funding the Commons & DeSci Tokyo 2024
hayataka88
0
160
Collective Predictive Coding Hypothesis and Beyond (@Japanese Association for Philosophy of Science, 26th October 2024)
tanichu
0
110
3次元点群を利用した植物の葉の自動セグメンテーションについて
kentaitakura
2
1.1k
インフラだけではない MLOps の話 @事例でわかるMLOps 機械学習の成果をスケールさせる処方箋 発売記念
icoxfog417
PRO
2
790
Machine Learning for Materials (Challenge)
aronwalsh
0
260
理論計算機科学における 数学の応用: 擬似ランダムネス
nobushimi
1
420
生成AI による論文執筆サポートの手引き(ワークショップ) / A guide to supporting dissertation writing with generative AI (workshop)
ks91
PRO
0
470
Featured
See All Featured
How to train your dragon (web standard)
notwaldorf
91
6k
Docker and Python
trallard
44
3.4k
Exploring the Power of Turbo Streams & Action Cable | RailsConf2023
kevinliebholz
32
5.5k
CSS Pre-Processors: Stylus, Less & Sass
bermonpainter
357
30k
Evolution of real-time – Irina Nazarova, EuRuKo, 2024
irinanazarova
8
690
Visualizing Your Data: Incorporating Mongo into Loggly Infrastructure
mongodb
45
9.5k
10 Git Anti Patterns You Should be Aware of
lemiorhan
PRO
656
60k
Understanding Cognitive Biases in Performance Measurement
bluesmoon
29
1.7k
Building Flexible Design Systems
yeseniaperezcruz
329
39k
Intergalactic Javascript Robots from Outer Space
tanoku
271
27k
Optimising Largest Contentful Paint
csswizardry
37
3.2k
Dealing with People You Can't Stand - Big Design 2015
cassininazir
367
26k
Transcript
機械学習の 公平性と 解釈可能性 ICML 2018 読み会 Saturday, July 28, 2018
Yu Ohori ML Researcher at NSSOL (2017-) • Semi-supervised learning
• Anomaly detection PyCon JP Staff (2018-) 2
3 再犯予測システムが 公平性を欠いている と指摘した
4 データ主体は決定に対して 意味のある説明を要求する 権利を有する
今, 公平性と 解釈可能性が熱い? 5
6
ICML 2017 Best Paper Awards • Koh & Liang, Understanding
Black-box Predictions via Influence Functions 7 ICML 2018 Best Paper Awards • Liu et al., Delayed Impact of Fair Machine Learning
ICML 2017 Tutorials • Kim & Doshi-Velez, Interpretable Machine Learning
8 ICML 2018 Tutorials • Corbett-Davies & Goel, Defining and Designing Fair Algorithms
ICML 2017 Workshops • 2nd WHI IJCAI 2017 Workshops •
1st XAI 9 ICML 2018 Workshops • 5th FAT/ML • 3rd WHI IJCAI-ECAI 2018 Workshops • 1st IReDLiA • 2nd XAI Fairness, Interpretability, and Explainability Federation of Workshops
10 3rd Workshop on Human Interpretability in Machine Learning (WHI)
Saturday, July 14, 2018 • 3 invited talks • 17 contributed talks の中から 5 つ紹介
11 何故そう判断した 複雑で君には 理解出来ない 君は信用出来ない 機械学習システム 利用者
12 LIME [Ribeiro et al., KDD ‘16] Code: github.com/marcotcr/lime SHAP
[Lundberg & Lee, NIPS ‘17] Code: github.com/slundberg/shap
13 LIME の仕組み 1. 対象の周辺で訓練標本を生成, 分類器が出力する確率で注釈 2. 対象に近い標本を重み付け, 複雑さに対する制約を与え, 説明器(Ridge
回帰)を学習 3. 説明器の係数に基づいて, 予測に寄与する特徴を提示
14 DeepExplain [Ancona et al., ICLR ‘18] Code: github.com/marcoancona/DeepExplain
1. Tomsett et al., Interpretable to Whom? A Role-based Model
for Analyzing Interpretable Machine Learning Systems エージェントの役割毎に解釈可能性を考察したお話 15
16 explainability transparency creator- interpretability 重要 重要 operator- interpretability 重要
時に重要 executor- interpretability 重要 重要でない decision-subject- interpretability 重要 時に重要 data-subject- interpretability 重要でない 重要 examiner- interpretability 重要 重要 機械学習エコシステムの 概念モデルを提案 システム開発 企業 融資申込者 過去の 融資申込者 金融規制 当局 金融機関 従業員 例:融資申込 金融機関 従業員
2. van der Waa et al., Contrastive Explanations with Local
Foil Trees Code: github.com/MarcelRobeer/ContrastiveExplanation 高次元データに適用可能な説明手法を提案したお話 17
18 LIME, SHAP の問題点 次元が大きくなるにつれて,提示する特徴数(説明長)は増えてい き,次第に説明の解釈が難しくなる
提案手法(Constrative Explanation)の発想 「B ではなく A と予測したのは何故か?」という対比した問い に答えることで,説明長を制限出来るのではないか? 一対他方式の決定木を学習することでこれを実現 19
20 全分類器で説明長が 短いことを実証 説明長 0 は A と B の間で説明の差異が見られないことを意味する
3. Laugel et al., Defining Locality for Surrogates in Post-hoc
Interpretablity Code: github.com/axadil/locality-interpretable-surrogate 局所性を適切に定義することで説明器の精度が向上したお話 21
22 LIME の問題点 分類器の局所的な決定境界 の近似に時折失敗
• b: black box classifier • s_x: explanation model 提案手法(LS:
Local Surrogate)の発想 分類器の決定境界の周辺で 訓練標本を生成すれば, 説明器の精度が向上するの ではないか? 23
24 説明器の精度を測るため, 局所忠実性の指標を導入 • Acc: AUC score • b: black
box classifier • s_x: explanation model LS が LIME に比べて 精度が高いことを実証
4. Collaris et al., Instance-Level Explanations for Fraud Detection: A
Case Study Achmea 社の保険金詐欺検出に 種々の説明手法を利用したお話 25
26 専門家の理解を促すため, ダッシュボードを作成 • Feature contribution [Palczewska et al., IEEE
IRI ‘14] • Partial dependence [Friedman, Ann. Statist. ‘01] • Local rule extraction [Deng, arXiv ‘14] 1. Rule ダッシュボードは専門家に特に好まれた 2. Partial dependence はあまりに単純であった 3. 説明の不一致は専門家の評価に影響しなかった 4. 欠損値や不均衡は予測の説明に大きく影響した
5. Alvarez-Melis & Jakkola, On the Robustness of Interpretability Methods
既存の説明手法の頑健性を測定したお話 27
28 LIME, SHAP の問題点 複雑なモデルの説明時に, 距離が近しい標本の間で 意味の異なる説明を提示
局所 Lipschitz の定義から 頑健性の指標を導入 • f: explanation model 29 低頑健
高頑健 LIME が他手法に比べて 頑健でないことを実証
5th Workshop on Fairness, Accountability, and Transparency in Machine Learning
(FAT/ML) Sunday, July 15, 2018 • 2 invited talks • 8 contributed talks • 20 posters の中から 1 つ紹介 30
31 何故そう判断した 複雑で君には 理解出来ない 君は信用出来ない 機械学習システム 利用者
1. Gajane & Pechenizkiy, On Formalizing Fairness in Prediction with
Machine Learning 社会科学の立場から種々の公平性を解説したお話 32
33
34 時間不足で資料作成が 間に合いませんでした 近いうちに続きを更新します
35 今, 公平性と 解釈可能性が熱い! • 現状は,定式化の合意形成の段階 • 法整備に伴い,急速に発展する見込み