Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ローカルLLMとLINE Botの組み合わせ その2(EVO-X2でgpt-oss-120bを...

ローカルLLMとLINE Botの組み合わせ その2(EVO-X2でgpt-oss-120bを利用) / LINE DC Generative AI Meetup #7

Avatar for you(@youtoy)

you(@youtoy) PRO

October 20, 2025
Tweet

More Decks by you(@youtoy)

Other Decks in Technology

Transcript

  1. 2025年10月20日 (月) LINE DC Generative AI Meetup #7 @ユニークビジョン株式会社 豊田陽介(

    ) @youtoy ローカルLLMとLINE Botの組み合わせ その2 (EVO-X2でgpt-oss-120bを利用)
  2. 自己紹介 豊田陽介( ) @youtoy ▶ IT系コミュニティ主催、   イベント登壇や運営なども ▶ M5StackでIoT、AI・機械

      学習の書籍を共著・単著で ▶ 子ども向けプログラミング  サポート活動なども  プライベートでの活動 ▶ ガジェット ▶ 描画系/IoT/AI・機械学習系 ▶ ビジュアルプログラミング ▶ JavaScript 好きな技術など
  3. 何が変わった? ローカルLLMで扱えるモデルのサイズが大幅増! 前回の LT で使っていた M4 MacBook Air(16GB): ⇒ VRAM:

    11.84 GB 例えば、LM Studioデフォルト設定で比べても... New! これまで 「GMKtec EVO-X2」(128GB) ⇒ VRAM: 87.87GB ※ ラインタイム「ROCm llama.cpp」 ※ 設定により、さらに増やせるはず ⇒ gpt-oss-120b-GGUF(サイズ 約65GB)が使えるように!
  4. 前回のLTでの構成と今回の差分(メモリ増による) ・AIエージェント開発用SDK  Mastra(+ プロバイダーで Vercel の AI SDK) ・ローカルLLM  LM

    Studio + 軽量モデル(jan-v1-4b/gemma-3-270m-it) ・LINE Bot  LINE Messaging API SDK for nodejs 今回: OpenAI の「gpt-oss-120b」
  5. 応答用サーバーなど 全体構成(モデル以外は前回の内容と同じ) スマホ LINE アプリ LINE サーバー LINE + OpenAI

    の gpt-oss-120b Microsoft「devtunnel」/ VS Code の「built-in port forwarding」 AIエージェント + Botサーバー PC: EVO-X2 ローカルの APIサーバー