Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
実用 Confident Learning
Search
Sponsored
·
SiteGround - Reliable hosting with speed, security, and support you can count on.
→
Asei Sugiyama
October 13, 2022
Technology
3.9k
2
Share
実用 Confident Learning
みんなのPython勉強会#86 での発表資料です
https://speakerdeck.com/asei/confident-learning
よりも事例の紹介に注力しています
Asei Sugiyama
October 13, 2022
More Decks by Asei Sugiyama
See All by Asei Sugiyama
Cynefin Framework を用いた AI Native 組織へのパラダイムシフト
asei
0
38
Algorithm behind Gemini Enterprise Agent Designer
asei
0
190
Algothythm behind Gemini Enterprise Agent Designer (with least amount of inputs from human)
asei
0
74
AI との良い付き合い方を僕らは誰も知らない (WSS 2026 静岡版)
asei
1
560
AI との良い付き合い方を僕らは誰も知らない
asei
1
520
最近の生成 AI の活用事例紹介
asei
3
420
AI エージェント活用のベストプラクティスと今後の課題
asei
2
700
エージェントの継続的改善のためのメトリクス再考
asei
3
900
生成AI活用のベストプラクティス集を作ってる件
asei
1
920
Other Decks in Technology
See All in Technology
Babylon.js を使って試した色々な内容 / Various things I tried using Babylon.js / Babylon.js 勉強会 vol.5
you
PRO
0
200
LLMに何を任せ、何を任せないか
cap120
11
6.9k
スクラムを支える内部品質の話
iij_pr
0
180
SSoT(Single Source of Truth)で「壊して再生」する設計
kawauso
2
420
フルカイテン株式会社 エンジニア向け採用資料
fullkaiten
0
11k
マルチモーダル非構造データとの闘い
shibuiwilliam
1
150
Oracle AI Database@Google Cloud:サービス概要のご紹介
oracle4engineer
PRO
5
1.3k
Kubernetesの「隠れメモリ消費」によるNode共倒れと、Request適正化という処方箋
g0xu
0
170
第26回FA設備技術勉強会 - Claude/Claude_codeでデータ分析 -
happysamurai294
0
350
出版記念イベントin大阪「書籍紹介&私がよく使うMCPサーバー3選と社内で安全に活用する方法」
kintotechdev
0
140
15年メンテしてきたdotfilesから開発トレンドを振り返る 2011 - 2026
giginet
PRO
2
260
Even G2 クイックスタートガイド(日本語版)
vrshinobi1
0
190
Featured
See All Featured
It's Worth the Effort
3n
188
29k
StorybookのUI Testing Handbookを読んだ
zakiyama
31
6.6k
[RailsConf 2023 Opening Keynote] The Magic of Rails
eileencodes
31
10k
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
141
35k
Introduction to Domain-Driven Design and Collaborative software design
baasie
1
700
Conquering PDFs: document understanding beyond plain text
inesmontani
PRO
4
2.5k
Agile Actions for Facilitating Distributed Teams - ADO2019
mkilby
0
160
AI Search: Implications for SEO and How to Move Forward - #ShenzhenSEOConference
aleyda
1
1.2k
The AI Revolution Will Not Be Monopolized: How open-source beats economies of scale, even for LLMs
inesmontani
PRO
3
3.2k
Utilizing Notion as your number one productivity tool
mfonobong
4
280
Music & Morning Musume
bryan
47
7.1k
The Spectacular Lies of Maps
axbom
PRO
1
670
Transcript
Confident Learning Asei Sugiyama
TOC Data-centric AI 振り返り <- Confident Learning 概要 実践 Confident
Learning
Data-centric AI 振り返り Data-centric AI Confident Learning Data Perf
Data-centric AI データの改善に着目したム ーブメント モデルよりもデータの改善 のほうが効果的という Andrew Ng の過去の経験に 基づく
2021 年 12 月に大きなワー クショップが行われた
Confident Learning ワークショップの中で紹介 された取り組みの 1 つ データセットに含まれるラ ベルの誤りを検出 詳細は後述
Data Perf ML Perf: 機械学習アルゴリ ズムのベンチマーク Data Perf: データセットのベ ンチマーク
いずれはアルゴリズム - テ スト - データセットをすべ てインクリメンタルに改善 するフレームワークを提供 するという野心的な提案
TOC Data-centric AI 振り返り Confident Learning 概要 <- 実践 Confident
Learning
Confident Learning 概要 背景 論文の内容 手法 結果 Pervasive Label Errors
in Test Sets Destabilize Machine Learning Benchmarks https://arxiv.org/abs/2103.14749
背景 Hinton が MNIST (LeCun が作成) の 誤り 1 件を見つけて喜んでいるのを
見ていた 「こんなに有名な人がこんなに喜ん でいるのならこれは価値があるので は」と思ったのがきっかけ Cleanlab: Labeled Datasets that Correct Themselves Automatically // Curtis Northcutt // MLOps Coffee Sessions #105 https://anchor.fm/mlops/episodes/Cleanlab-Labeled- Datasets-that-Correct-Themselves-Automatically--Curtis-Northcutt--MLOps-Coffee- Sessions-105-e1k777l/a-a850eq6
論文の内容 Confident Learning という 手法を提案 多クラス分類において、既 存の手法よりも効率的にラ ベルの誤りを発見 MNIST, ImageNet
などのデ ータセットにラベルの誤り を実際に発見した Pervasive Label Errors in Test Sets Destabilize Machine Learning Benchmarks https://arxiv.org/abs/2103.14749
手法 データセットを用いてモデ ルを訓練 & 推論 (k-fold) 推論結果に Confident Learning を適用し、誤りが
疑われるデータの一覧を作 成 Amazon Mechanical Turk で改めてアノテーション Pervasive Label Errors in Test Sets Destabilize Machine Learning Benchmarks https://arxiv.org/abs/2103.14749
結果: データセットの誤り率 Pervasive Label Errors in Test Sets Destabilize Machine
Learning Benchmarks https://arxiv.org/abs/2103.14749
結果: 提案のワークフローで発生する見逃し Pervasive Label Errors in Test Sets Destabilize Machine
Learning Benchmarks https://arxiv.org/abs/2103.14749
どうしようもない例 右の画像は ImageNet で tick (ダニ) とラベル付けされたもの クラウドソーシングで scorpion とラ
ベルが振り直された 実際は Solifugae (ヒヨケムシ、クモ やサソリではない)
TOC Data-centric AI 振り返り Confident Learning 概要 実践 Confident Learning
<-
背景 画像から疾病の陽性/陰性を判定する機械学習モデルを構築中 陽性/陰性の判定には高い専門性が必要なため、少数の専門家 (医療業務 従事者) が画像をアノテーション 構築したデータセットをもとに画像から陽性/陰性を判定するモデルを構 築 テストデータにおいてモデルが誤った画像について、専門家に念のため の再確認したところ、機械学習モデルの判断のほうが正しかったという
結果に
問題 構築した画像データセットに誤りがどの程度含まれているのか不明 データセットに含まれる画像が 4,000 件あり、今後も増える予定 専門家が全件チェックするのは現実的でないし、全件チェックした結果 を信用してよいのかどうかも不明
目標 1. アノテーションの結果がどの程度信用できるのか見積もること 2. データセットに含まれる誤りを効率的に修正するための手法を確立する こと
Clean Lab Confident Learning の OSS 実装 Python から利用可能 cleanlab/cleanlab
https://github.com/cleanlab/cleanlab
コード アルゴリズムはモデルの出力のみを用いるため、幅広い分類モデルを利 用可能 from cleanlab.filter import find_label_issues ordered_label_issues = find_label_issues(
labels=labels, pred_probs=pred_probs, return_indices_ranked_by='self_confidence', )
結果 画像 4000 枚から40件の誤りを特定、修正できた 種別 枚数 割合 全画像 4000 枚
100% Confident Learning により抽出した画像 250 枚 6.25% 再レビューの結果、陽性/陰性が修正された件数 40 枚 1%
考察 アノテーションの誤りは概ね正しく抽出できていると思われる 今回のデータセットにおいて検出できた誤りは 1% 程度 これは公開されている品質の高いデータセットとほとんど同じ アノテーションの誤りを効率的に修正する手法は確立できた レビュー対象を 4,000 枚から
250 枚 (6%) に集約できた 見逃しもあると思われるため、データの収集と修正を繰り返し実施する 必要性も明らかになった
まとめ Confident Learning はラベルの誤りを発見することでデータの品質向上 に取り組むアルゴリズム ImageNet などのデータセットに対してアルゴリズムを適用することで 実際に誤りを発見 アルゴリズムを実際のデータセットに適用してみたところ、誤りを発見 し、修正できた