Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
ローカルLLMをJavaScriptで(少しAIエージェントSDKなどの話も) / 冬のJav...
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
you(@youtoy)
PRO
December 13, 2025
0
950
ローカルLLMをJavaScriptで(少しAIエージェントSDKなどの話も) / 冬のJavaScript祭り @Pleasanter Lounge
you(@youtoy)
PRO
December 13, 2025
Tweet
Share
More Decks by you(@youtoy)
See All by you(@youtoy)
Deno・Bunの標準機能やElysiaJSを使ったWebSocketサーバー実装 / ラーメン屋を貸し切ってLT会! IoTLT 2026新年会
you
PRO
0
310
M5Stack Chain DualKey を UIFlow 2.0 + USB接続で試す / ビジュアルプログラミングIoTLT vol.22
you
PRO
2
170
Webの技術で「特殊なゲーム用コントローラーや他デバイスなど」とブラウザを連携させる / HTML5 11th Anniversary
you
PRO
0
85
ブラウザのAPIで Nintendo Switch用の特殊なゲーム用コントローラーを体験型コンテンツに / IoTLT @ストラタシス・ジャパン
you
PRO
0
200
ローカルLLMとLINE Botの組み合わせ その2(EVO-X2でgpt-oss-120bを利用) / LINE DC Generative AI Meetup #7
you
PRO
1
890
生成AIとM5Stack / M5 Japan Tour 2025 Autumn 東京
you
PRO
0
440
子ども向けの活動や自身のモノづくり活動などでやったこと / micro:bit ファンの集い
you
PRO
0
51
ブラウザのAPIで色々なデバイスをあれこれ扱ってみた話(主にWeb HID API) / IoTLT @JLCPCB オープンハードカンファレンス
you
PRO
0
170
ヒーローズ・リーグの応募作品で使ったデバイス・アイテム・ライブラリなど / #ヒーローズリーグ 2025 開発素材LT
you
PRO
0
76
Featured
See All Featured
Gemini Prompt Engineering: Practical Techniques for Tangible AI Outcomes
mfonobong
2
290
Collaborative Software Design: How to facilitate domain modelling decisions
baasie
0
150
Digital Ethics as a Driver of Design Innovation
axbom
PRO
1
200
Money Talks: Using Revenue to Get Sh*t Done
nikkihalliwell
0
160
Mozcon NYC 2025: Stop Losing SEO Traffic
samtorres
0
150
Building a Modern Day E-commerce SEO Strategy
aleyda
45
8.7k
WENDY [Excerpt]
tessaabrams
9
36k
SEO in 2025: How to Prepare for the Future of Search
ipullrank
3
3.3k
Why Your Marketing Sucks and What You Can Do About It - Sophie Logan
marketingsoph
0
81
Heart Work Chapter 1 - Part 1
lfama
PRO
5
35k
A Modern Web Designer's Workflow
chriscoyier
698
190k
Breaking role norms: Why Content Design is so much more than writing copy - Taylor Woolridge
uxyall
0
180
Transcript
2025年12月13日 (土) 冬のJavaScript祭り @Pleasanter Lounge 豊田陽介( ) @youtoy ローカルLLMをJavaScriptで (少しAIエージェントSDKなどの話も)
自己紹介 豊田陽介( ) @youtoy ▶ IT系コミュニティ主催、 イベント登壇や運営なども ▶ M5StackでIoT、AI・機械
学習の書籍を共著・単著で ▶ 子ども向けプログラミング サポート活動なども プライベートでの活動 ▶ ガジェット ▶ 描画系/IoT/AI・機械学習系 ▶ ビジュアルプログラミング ▶ JavaScript 好きな技術など
ブラウザで動く体験型の作品を作るのが好きです 過去の登壇では、こういった方向の技術の話をしていました (ブラウザでAI・機械学習や描画系ライブラリの話など)
【今日の本題】 ローカルLLM と JavaScript こちらの話題によった内容が けっこうあるかも
今日の話の流れ 1 2 3 4 30万円未満の PC などでのローカルLLM 使っているマシンのスペックなど 「gpt-oss-120b」でのローカルLLM
大きめなサイズのモデルを試してみた話 生成AI系のライブラリ・SDK とローカルLLM JavaScript版の AIエージェントSDK などが絡む話を少し紹介 まとめ 現状の自分の感想など
内容に関する補足 ・個人で試してみた事例の話です ⇒ ビジネス系・業務での活用・という 要素は入ってないです ・生成AI・AIエージェントまわりの詳しい話 には踏み込んでいないです ⇒ ローカルLLM
まわりの概要の話です
ミニPC「GMKtec EVO-X2」 Ryzen AI Max+ 395搭載 今日の話題の1つ目(ハードウェア関連) 10月中旬、ローカルLLM用の強大な力(マシン)を入手 M4 Mac
mini、 M4 MacBook Air New! 2025年10月以前 大きめなモデルも 扱えるように
ローカルLLMを動作させるために ⇒ モデルのパラメータ(重み) などを展開するメモリが必要 ※ EVO-X2だと他の2台より大きなサイズを確保できる
デフォルト設定でモデル用に使えるメモリのサイズ ※ ある特定の実行環境での概算 (VRAMにモデルをのせる、という前提での話) M4 Mac mini(24GB) ⇒ 16GB EVO-X2(128GB)
⇒ 64GB ※ 96GB 等に増やす ことも可能 M4 MacBook Air(16GB) ⇒ 8GB
試したかったモデル:OpenAIの「gpt-oss-120b」 ある実行環境(LM Studio)でのモデル サイズ表記 「65GB」 96GB の割り当てなら余裕でモデルをのせられる
OpenAIの記事より:「gpt-oss-120b」の性能 あるベンチマーク で o4-mini と同等
購入理由と価格(全て何らかのセールで購入) M4 Mac mini(24GB) ローカルLLM + Mac mini を 試してみたかった
M4 MacBook Air(16GB) Intel版 MacBook Pro を買い替え ようかと思ってた時にセール EVO-X2(128GB) ローカルLLMで大きめのモデルを 動かしてみたくなった 14.9万円(2024/10) 約29万円(2025/10) 16.5万円(2025/7)
ローカルLLM関連で話題に出てくるPC(の一部) EVO-X2 よりも価格は高い(性能の違いなどがあったりはするけれど) (EVO-X2 も高いけど)このあたりよりは 個人的には手を出しやすかった
「EVO-X2」+「gpt-oss-120b」 を使ったローカルLLM
動画: Node.jsで実装したクライアントでの処理 EVO-X2をローカルサーバーとしてAPI経由で処理を実行 わりと良い感じの速度で 整った長文が出力された
生成AI/ローカルLLMとJavaScript ・生成AI を JavaScript で扱う場合の例 ⇒ 例えば、OpenAI/Gemini/Claude など の
API を利用(REST API で扱う) ⇒ API用のライブラリ、AIエージェントSDK などの JavaScript版を使ったり ・ローカルLLM + JavaScript ⇒ 上記と同じような感じで扱うことも可能
JavaScriptでローカルLLM:シンプルな処理の例 baseURL でローカル サーバーを指定 APIキーやモデルは 空/適当な文字列 ← 基本的には Node.js で
openai のパッケージを 使ったコードの、 接続先を変えるだけ
ローカルLLMでよく出てくる実行環境 ・LM Studio や Ollama などが代表的なものとして よく出てくる(※ 他にもあります) ・GUI上で処理を試すこともでき、ローカルの APIサーバーをたてられる
⇒ OpenAI互換の API だったり、それとは別に 独自の REST API があったりもする
AIエージェントSDK(JavaScript版)も OpenAI対応のものを使える 例えば
シンプルな実装であれば 非常に短いコードでサクッと
「OpenAI Agents SDK」でのシンプルな実装例
Vercelの「AI SDK」でのシンプルな実装例
ちょっとしたお試しの記事はQiitaに
ローカルLLMをがっつり使っているか? ・自分の用途だと ChatGPT・Gemini・Claude を 使ってしまえば良い、という状況が多いかも ・ビジネス用途だと、外部の API に出せないデータの 処理がよくある活用事例の 1つ
・やりたいこととして、モノづくり系の体験型展示での 活用がある(ネット環境・コストを気にせず利用)
EVO-X2(や Mac mini等)を買って良かったか? ・ローカルLLM に関する知識を得たい、という強い 動機になって良かった ⇒ 以前も情報は追いかけていたものの、自分が 使える状態になってからは、具体的なモデルの
情報や実行環境の詳細の情報も見るようになった その分、30万円近い PC を買うことに なったというのはあるけれどw
終わり!