Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Bedrock カスタムモデルvs汎用モデルの比較

Bedrock カスタムモデルvs汎用モデルの比較

為藤アキラ

February 18, 2025
Tweet

More Decks by 為藤アキラ

Other Decks in Technology

Transcript

  1. 為藤 アキラ (Akira Tameto) 株式会社BLUEISH 代表取締役 CEO兼CTO ・AWS歴12年 ・直近のAIプロジェクト  

    ・画像を中心とした機械学習とLLM のハイブリッドのアーキテクト 自己紹介
  2. データセットを準備する { " ": " ", " ": 
 "

    " }, prompt completion 注文した商品がまだ届いていない! ご不便をおかけして申し訳ありません。
 まずは以下の手順でご確認ください。
 1. ご注文確認メールに記載されている追跡番号をお手元にご用意ください。
 2. 当社の配送追跡ページにアクセスし、追跡番号を入力してください。
 3. 配送状況が更新されていない場合は、カスタマーサポートまでお問い合わせください。
 そして、忙しい中でもほっと一息つけるよう、例えばジャスミン茶、ダージリンティー、またはウーロン茶な どもお楽しみいただければ幸いです。 データのイメージ
  3. それぞれの特徴 ・Fine-tuning (微調整) すでに学習済みのモデルを、特定のタスクやドメインに合わせて追加学習すること
 ・Distillation (蒸留) 大規模な「教師モデル」の知識を、より軽量な「生徒モデル」に転送する技術です。 生徒モデルは教師モデルに近い性能を発揮しつつ、計算資源やメモリの消費を抑え、実運用に適したサイズになります。 ・Continued pre-training

    (事前トレーニングの継続) 既存の大規模モデルに対して、さらに追加の一般的またはドメイン固有のデータで学習を続けるプロセスです。 これにより、モデルの言語理解能力や専門性が向上し、後の微調整(fine-tuning)の効果が高まる場合があります。
 ・RAG (検索拡張生成) 外部の知識ソース(ドキュメントやデータベース)から関連情報を検索(リトリーバル)し、その情報を元に生成(ジェネレーション)を行う手法。 これによりモデルはより正確で信頼性の高い回答を提供できるようになる。
  4. それぞれの特徴 ・Fine-tuning (微調整) すでに学習済みのモデルを、特定のタスクやドメインに合わせて追加学習すること
 ・Distillation (蒸留) 大規模な「教師モデル」の知識を、より軽量な「生徒モデル」に転送する技術です。 生徒モデルは教師モデルに近い性能を発揮しつつ、計算資源やメモリの消費を抑え、実運用に適したサイズになります。 ・Continued pre-training

    (事前トレーニングの継続) 既存の大規模モデルに対して、さらに追加の一般的またはドメイン固有のデータで学習を続けるプロセスです。 これにより、モデルの言語理解能力や専門性が向上し、後の微調整(fine-tuning)の効果が高まる場合があります。
 ・RAG (検索拡張生成) 外部の知識ソース(ドキュメントやデータベース)から関連情報を検索(リトリーバル)し、その情報を元に生成(ジェネレーション)を行う手法。 これによりモデルはより正確で信頼性の高い回答を提供できるようになる。