Upgrade to Pro — share decks privately, control downloads, hide ads and more …

生成AIキャッチアップ会__生成AIと共に働くために個人と組織の視点から_.pdf

 生成AIキャッチアップ会__生成AIと共に働くために個人と組織の視点から_.pdf

jonakp

July 24, 2024
Tweet

More Decks by jonakp

Other Decks in Technology

Transcript

  1. 今日話すこと 1. AIの歴史と技術の進化を「簡単に」振り返る (20分) ◦ AI > ML/DL > Transformer

    > GPT-n 2. 生成AIの基礎的な知識の学び方: (10分) ◦ JDLA(日本ディープラーニング協会) Generative AI Testより 3. 生成AIを業務で使う際に組織として押さえるべきこと: (10分) ◦ JDLA 生成AIの利用ガイドライン より 生成AIやLLMを個人・組織が活用するにあたり、 ベースとなる知識を付けるための一助になれば
  2. 機械学習ベースの AIを作ってみる • 「部屋の広さから賃料を予測する」AIを作ってみます ◦ 作り方: 大量のデータを基に良い関数を見つけ出す 広さ(m2) 賃料(万円) 61.2

    16.5 64.4 19.6 54.7 11.4 50.1 12 55.45 13.5 61.34 15.6 76.11 19.2 68.92 16.92 66.6 16.6 65.66 17 埼玉県 志木市駅 駅徒歩10分 築10年以内 (summo)
  3. 機械学習ベースの AIを作ってみる • 「部屋の広さから賃料を予測する」AIを作ってみます ◦ 作り方: 大量のデータを基に良い関数を見つけ出す 広さ(m2) 賃料(万円) 61.2

    16.5 64.4 19.6 54.7 11.4 50.1 12 55.45 13.5 61.34 15.6 76.11 19.2 68.92 16.92 66.6 16.6 65.66 17 埼玉県 志木市駅 駅徒歩10分 築10年以内
  4. 機械学習ベースの AIを作ってみる • 「部屋の広さから賃料を予測する」AIを作ってみます ◦ 作り方: 大量のデータを基に良い関数を見つけ出す 広さ(m2) 賃料(万円) 61.2

    16.5 64.4 19.6 54.7 11.4 50.1 12 55.45 13.5 61.34 15.6 76.11 19.2 68.92 16.92 66.6 16.6 65.66 17 埼玉県 志木市駅 駅徒歩10分 築10年以内
  5. 機械学習ベースの AIを作ってみる • 「部屋の広さから賃料を予測する」AIができました! ◦ y = f(x) = 0.314

    * x - 3.8 ◦ 実際使ってみる ▪ 部屋の広さが65m2なら...? ▪ 0.314 * 65 - 3.8 = 16.61 万円
  6. • コンピュータの気持ちになってみる これは本当に AIなのか? 文字コード の組み合わせ = 数値 部屋の広さから 家賃を予測する

    AI 65 16.61 RGB値の組み 合わせ = 数値 確率の組み合 わせ = 別の数値 別の文字コードの 組み合わせ = 別の数値
  7. • コンピュータの気持ちになってみる これは本当に AIなのか? 文字コード の組み合わせ = 数値 部屋の広さから 家賃を予測する

    AI 65 16.61 RGB値の組み 合わせ = 数値 別のRGB値の 組み合わせ = 別の数値 別の文字コードの 組み合わせ = 別の数値 数値を別の数値に変換している という意味で全て同じ
  8. • コンピュータの気持ちになってみる これは本当に AIなのか? 文字コード の組み合わせ = 数値 部屋の広さから 家賃を予測する

    AI 65 16.61 RGB値の組み 合わせ = 数値 別のRGB値の 組み合わせ = 別の数値 別の文字コードの 組み合わせ = 別の数値 数値を別の数値に変換する = 関数
  9. • モデル ≒ 関数 or 関数を作り出す仕組み • モデルは以下の2つから構成される ◦ どんな関数を使うか?

    ▪ 例: y = ax + b ◦ その関数を使って どのように目的の関数を見つけるか? ▪ 例: 評価指標を用意し、 一番結果が良くなるように、 a, b を調整する 機械学習における「モデル」 線形回帰モデル
  10. • モデル = 関数 or 関数を作り出す仕組み • モデルは以下2つから構成される ◦ どんな関数を使うか?

    ▪ 例: y = ax + b ◦ その関数を使って どのように目的の関数を見つけるか? ▪ 例: 評価指標を用意し、 一番結果が良くなるように、 a, b を調整する 機械学習における「学習」 これがいわゆる 学習 線形回帰モデル
  11. • モデル = 関数 or 関数を作り出す仕組み • モデルは以下2つから構成される ◦ どんな関数を使うか?

    ▪ 例: y = ax + b ◦ その関数を使って どのように目的の関数を見つけるか? ▪ 例: 評価指標を用意し、 一番結果が良くなるように、 a, b を調整する 機械学習における「パラメーター」 このa, bを パラメーターと呼 ぶ 線形回帰モデル
  12. 多くの分野で成果を残した • 画像認識: ImageNetコンペティションでのAlexNet、ResNetの成功 • ゲームAI: AlphaGoが人間のトッププロを打ち負かす • 自然言語処理: Word2Vecが類似単語検索や文書分類を改善

    • 音声認識: GoogleやMicrosoftのシステムが高い認識精度を達成 • 医療診断: 画像診断での病変検出精度の向上 DeepLearningの成果 参考:Stochastic Reconstruction of an Oolitic Limestone by Generative Adversarial Networks 参考:Understanding LSTM Networks
  13. Transformer • 機械翻訳分野におけるDeepLearningのモデルで、RNNの課題を解決した • RNNと異なりAttention機構を中心に構成されている ◦ 代表的な論文: "Attention is All

    You Need" (2017) ◦ Attention機構: 文の中の各単語が他の単語とどの程度関連しているかをスコアリングする https://jinglescode.github.io/2020/05/27/illustrated-guide-transformer/
  14. GPT1(Generative Pre-trained Transformer) • Transformerをベースにしたモデル • 色々なタスクを1つのモデルで解いた ◦ これまで: タスクに合わせてモデルを設計

    ◦ GPT: 1つのモデルで対応可能 • GPTが示したこと ◦ Transfomerはすごい! データとモデルサイズ (≒ パラメータ数) をあげればあげるほど精度が上がる ◦ Pre-training と Fine tuning がすごい
  15. GPT1(Generative Pre-trained Transformer) • Transformerをベースにしたモデル • 色々なタスクを1つのモデルで解いた ◦ これまで: タスクに合わせてモデルを設計

    ◦ GPT: 1つのモデルで対応可能 • GPTが示したこと ◦ Transfomerはすごい! データとモデルサイズ (≒ パラメータ数) をあげればあげるほど精度が上がる ◦ Pre-training と Fine tuning がすごい
  16. Pre-training と Fine Tuning • Pre-training: (教師なしの)大規模データを用いて言語を学習したモデルを作る • Fine Tuning:

    特定のタスクに合わせた少量の(教師ありの)データを用いて追加学習する。 ◦ 1000件程度の教師付きデータを用意すればさまざまなタスクに対応できるようになった Pre-training Fine-tuning
  17. GPT-2 • GPTによって... ◦ 事前学習済みのモデルを用意すれば、 少しのデータを使った追加学習で色々なタスクに 対応できるようになった ◦ でも1000件くらいはほしい。大変。 ◦

    めんどくさいから、 事前学習済みモデルだけでなんとかできない? ◦ GPTをさらに大きくしていったら? => できた! • GPT-2の成果 ◦ まだまだだけど、そこそこ結果が出た。 ◦ この方向性まだまだいけるんじゃね -> GPT3へ
  18. GPT-2 • GPTによって... ◦ 事前学習済みのモデルを用意すれば、 少しのデータを使った追加学習で色々なタスクに 対応できるようになった ◦ でも1000件くらいはほしい。大変。 ◦

    めんどくさいから、 事前学習済みモデルだけでなんとかできない? ◦ GPTをさらに大きくしていったら? => できた! • GPT-2の成果 ◦ まだまだだけど、そこそこ結果が出た。 ◦ この方向性まだまだいけるんじゃね -> GPT3へ
  19. その後 • InstructGPT, GPT-3.5, Chat-GPT, GPT-4, … ◦ 割愛 •

    汎用的なタスクをこなす生成AIが一般的に浸透していった
  20. 全体のまとめ • 現代のAIは機械学習ベースで ≒ 関数 • 「良い関数」を作れるモデルとしてDeepLearningが登場し、 各方面で大きな成果を残した • DeepLearningのモデルとして

    Transformer が現れ、 機械翻訳の分野で大きな進歩があった • Transformerは非常に優れており (≒大規模モデル化に耐えうるポテンシャルがあり) GPT-nのようなTransformerベースの汎用的なタスクを処理できる AIが誕生した
  21. 参考資料 • AI/生成AI全般 ◦ 書籍 ▪ 生成AIで世界はこう変わる ▪ 大規模言語モデルは新たな知能か ▪

    生成AI時代を勝ち抜く組織・企業の作り方 ◦ 動画 ▪ AIってなに? AIの「本質」を理解すれば恐ろしさがわかる
  22. 参考資料 • 機械学習/DeepLearning ◦ 書籍 ▪ ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 ◦

    動画 ▪ ディープラーニングの世界 • ディープラーニングとは関数近似器である • 学習 - なぜ必要なのか?何をするのか? • 関数 - なぜ「深さ」が AI を生み出しているのか?
  23. 参考資料 • Transformer ◦ 書籍 ▪ 生成AIで世界はこう変わる ▪ 生成AI時代を勝ち抜く組織・企業の作り方 ◦

    動画 ▪ ディープラーニングの世界 • Transformer - Multi-Head Attentionを理解してやろうじゃないの • 忙しい人のための Transformer と Multi-Head Attention ▪ 3Blue1Brown • GPTとは何か Transformerの視覚化 • GPT解説2 アテンションの仕組み (Attention, Transformer) ◦ 講座 ▪ Transformerを詳しく学ぼう! -PyTorchで実装するAttention、Transformer-
  24. 参考資料 • GPT ◦ 書籍 ▪ 生成AIで世界はこう変わる ▪ 生成AI時代を勝ち抜く組織・企業の作り方 ◦

    動画 ▪ ディープラーニングの世界 • GPT - 伝説の始まり。事前学習とファインチューニングによるパラダイムシフト • GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み • GPT-3 ①-1 モデルと Sparse Transformer について • GPT-3 ①-2 追加学習なしでタスクに対応する仕組み • GPT-3 ② 限界と今後の研究テーマ ▪ 生成AI ChatGPTって何?仕組みからわかる「真の恐ろしさ」
  25. JDLA Generative AI Test • JDLA Generative AI Test を受けてきました

    • 基礎を抑えるにはちょうど良い試験だと思ったので紹介します。 ◦ JDLAのサイト
  26. JDLA Generative AI Test まとめ • 気楽に受けることができる(試験時間20分 & 20問) •

    その割に 「生成AIの試験」と言うことでなんとなく見栄えが良い • 生成AI活用にあたり、 最低限押さえておくべき知識の範囲を知ることができる
  27. 組織で生成 AIを活用する際の懸念 • 生成AIの便利さは多くの人が実感しているが、 業務利用には懸念があると感じる方がいるかもしれない ◦ 特に組織のマネジメントに携わる方やフリーランスの方にとって重要な話 • 主な懸念の例: ◦

    入力データのセキュリティや管理 ▪ 個人情報や機密情報の漏洩リスク ▪ 著作権の問題:他人の著作物の利用とその影響 ◦ 出力 ▪ 生成AIが出力する情報の信頼性 ▪ 法的責任:生成AIの出力に対する責任の所在
  28. 組織で生成 AIを活用する際の課題 • 生成AIの便利さは多くの人が実感しているが、 業務利用には懸念があると感じる方がいるかもしれない ◦ 特に組織のマネジメントに携わる方やフリーランスの方にとって重要な話 • 主な懸念の例: ◦

    入力データのセキュリティや管理 ▪ 個人情報や機密情報の漏洩リスク ▪ 著作権の問題:他人の著作物の利用とその影響 ◦ 出力 ▪ 生成AIが出力する情報の信頼性 ▪ 法的責任:生成AIの出力に対する責任の所在 これらの懸念を解消することで、 組織として安心して生成AIを推進できる
  29. JDLA 生成AIの利用ガイドライン • JDLA が生成AIの利用ガイドライン を公開しています ◦ 生成AIの利用ガイドライン • 生成AIの業務利用指針として参考になる内容なので紹介します

    ◦ こちらをベースに自組織用のガイドラインを作成する、 または個人として押さえておくことで、業務利用の懸念を解消できると思います ◦ 専門家がまとめた内容を参考にすることで、より安心して生成 AIを活用できると思います • また実例として、弊社でのガイドライン作成&運用の状況を共有します
  30. 弊社でのガイドライン作成 • Google DocumentやGoogleサイトを用いて作成 ◦ 利用サービス毎にガイドラインを作成 (ChatGPT&Github Copilot) • 構成は

    JDLA ガイドラインをほぼそのまま流用 • 中身はJDLA ガイドラインを引用しつつ、 補足説明を加える構成
  31. 今日話したこと (振り返り) 1. AIの歴史と技術の進化を「簡単に」振り返る (20分) ◦ AI > ML/DL >

    Transformer > GPT-n、LLM(大規模言語モデル) 2. 生成AIの基礎的な知識の学び方: (10分) ◦ JDLA(日本ディープラーニング協会) Generative AI Testより 3. 生成AIを業務で使う際に組織として押さえるべきこと: (10分) ◦ JDLA 生成AIの利用ガイドライン より 生成AIやLLMを個人・組織が活用するにあたり、 ベースとなる知識を付けるための一助になれば