Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ローカル環境でAIを動かそう!

 ローカル環境でAIを動かそう!

A 10 minute presentation I gave at the 2nd Sapporo Sugoi AI Study Group (on 2025/5/30) introducing how to run LLM models in a local environment using llama.cpp and Diffusers.

https://sapporo-sugoi-ai.connpass.com/event/349822/

(Note: This presentation is only in Japanese, sorry.)

Avatar for Michael Tedder

Michael Tedder

May 30, 2025
Tweet

More Decks by Michael Tedder

Other Decks in Technology

Transcript

  1. > 仕事: ゲームクリエイター(開発、たまにディレクションも)  (初代PlayStation 〜 Switchゲーム機 / スマホ / PC

    / Rift VR / AR / MR) AWSでアプリケーション開発(サーバーレス / コンテナ) > 好きな言語: C++17 / GLSL / ASM (x64/ARM/6502/MIPS) / PHP / TypeScript > コミュニティ: JAWS-UG GameTech+札幌運営 / 2020年からAWSコミュニティビルダー > 趣味: ゲーム (遊ぶ方)、燻製作り、スキューバ > 最近本当にすごいと思ったAI: Claude Sonnet 4でGitHub Copilot Agent Mode $ whoami
  2. ローカル環境でAIを動かす • 反応が常に速い ◦ PCスペックが足りてれば... • ネット通信は必要ない ◦ ソースコードやデータが環境から出ていかない ◦

    秘密情報・セキュリティ厳しい会社に可能性あり • カスタムのシステムプロンプト ◦ AIとの会話設定を自由に決められる • 楽しいっ!
  3. PCスペック • 強いGPUは必要 ◦ 3〜4年前までくらいなら最近のモデル動かせる • GPUメモリ量が一番重要 ◦ WindowsならGeforce 3070

    12GBが最低ライン ◦ MacならM1 Max 32GBからでも • 将来を考えるとMacの方が強い方針かも? ◦ Apple Siliconはユニファイドメモリがある ◦ メインCPUとGPUが同じメモリ区域使える ◦ 64GBは大きい!70Bチャットモデルも実行可能!
  4. llama.cpp • チャット・テキスト生成には llama.cpp がおすすめ ◦ 完全C/C++のLLMインファレンスアプリ ◦ CUDA /

    Vulkan / Metalの幅広くGPU対応 ◦ 1.5, 2, 3, 4, 5, 6, 8 ビット量子化対応 • GitHubで公開されてる • GGUFフォーマットが必要 ◦ 他から変換ツールある https://github.com/ggml-org/llama.cpp