Lab All rights reserved. 14 【問題点3】AIの脆弱性問題(堅牢性) https://www.ecva.net/papers/eccv_2018/papers_ECCV/papers/Dong_Su_Is_Robustness_the_ECCV_2018_pap er.pdf
Lab All rights reserved. 40 ⽂献紹介︓How Can I Explain This to You? An Empirical Study of Deep Neural Network Explanation Methods • NeurIPS 2020 • 予測対象と”類似した事例”をユーザーに提⽰する解釈性について、クラウドソーシ ングを⽤いて他の⼿法と解釈のしやすさを調査 • (例︓深層学習分類器の最終層特徴量におけるcosine類似度など)
Lab All rights reserved. 41 ⽂献紹介︓How Can I Explain This to You? An Empirical Study of Deep Neural Network Explanation Methods • ⽂章での説明⽅法は「LIME」が70.4%と好まれました。 • また、画像、⾳声、感覚の分類では、それぞれ89.6%、70.9%、84.8%の割合で 「例⽰による説明」が好まれた。
Lab All rights reserved. 43 ⽂献紹介︓Beyond Accuracy: Behavioral Testing of NLP Models with CHECKLIST • ACL 2020 Best Paper • 従来はtrain-test-validationでのみ精度評価が⾏われることが⼀般的 • そこでチェックリストを設けることで多⾯的に性能を評価しようという試み ◦ Min Func Test︓ユニットテスト的な発想 ◦ INVariance︓摂動に対する出⼒の頑健さ(⼊⼒が多少変わっても出⼒はかわらない) ◦ DIRectional︓出⼒を変えるような変更で出⼒が変わるか
⼤量のデータと最新のアルゴリズムの掛け合わせに より《今まで⼈間には分からなかったこと、データ に眠る隠れた価値の発⾒》を⾏う Vision “Augment Intelligence”(拡張知能) : The combination of HumanExpertise & MachineLearning that goes far beyond just individuals & AI Empower Your Mind using Artificial Intelligence