Upgrade to Pro — share decks privately, control downloads, hide ads and more …

リソース制限環境下でのローカルLLM構築術

 リソース制限環境下でのローカルLLM構築術

ローカルLLM(Ollama+軽量LLM)とMCPの使い方について、以下の手順で説明します。
1. クラウドLLM、ローカルLLMの課題
2. Ollama+軽量LLMで始めよう!
3. MCPとは
4. MCPHost+Ollama

Avatar for kouki.miura

kouki.miura

July 14, 2025
Tweet

More Decks by kouki.miura

Other Decks in Programming

Transcript

  1. 長男が飼っている モンちゃん(ハリネズミ) がアイコン Self Introduction ・ドゥウェル株式会社 (医療系IT開発・導入会社)に所属 ・マネージャー(プレイング・マネージャー) ・TypeScript, Vue.js,

    Node.js, Java,C#, PHP ・3児の父 ・休日は子どものサッカー観戦 ・参加している勉強会  札幌PHP勉強会、JBUG札幌、JavaDO、ゆるWeb勉強会、えびてく、  クラメソ札幌IT勉強会(仮)、AWS初心者LT会in札幌、  札幌すごいAI会、札幌IT石狩鍋、hokkaido.js  等
  2. 3.MCPとは MCP Host (Included LLM and MCP Client) MCP Server

    MCP ローカルファイル データベース WebAPI 等 サーバー側の機能として以下が定義されている ・プロンプト プロンプトのテンプレートを返す ・リソース 副作用のないリソースアクセス ・ツール 副作用のあるリソースアクセス https://modelcontextprotocol.io/specification/2025-03-26/server/index
  3. 4.MCPHostとOllama 手順(10分くらい) https://github.com/mark3labs/mcphost ①Go言語インストール ②MCPHostをインストール ③MCPクライアント設定後、実行 $ cat .mcp.json {

    "mcpServers": { "filesystem": { "type": "local", "command": ["npx", "@modelcontextprotocol/server-filesystem", "/tmp/test"], "environment": {}, "allowedTools": ["read_file", "write_file"], "excludedTools": ["delete_file"] }, } } $ $HOME/go/bin/mcphost -m ollama:qwen3:0.6b 動くはず。でしたが動きませんでした。ごめんなさい... (独自実装しているMCP Host(Ollama+Qwen3:0.6b+MCP Client) + MCP Serverでは動作することを確認済み。<-an excuse.)