Lock in $30 Savings on PRO—Offer Ends Soon! ⏳
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
安いGPUレンタルサービスについて
Search
Aratako
December 05, 2025
Technology
2
3.1k
安いGPUレンタルサービスについて
個人的に触ったことのある安いGPUレンタルサービスをGood / Bad含め紹介します。
Aratako
December 05, 2025
Tweet
Share
More Decks by Aratako
See All by Aratako
松尾研LLM講座2025 応用編Day3「軽量化」 講義資料
aratako
6
3.5k
Liquid AI Hackathon Tokyo プレゼン資料
aratako
0
190
【初心者向け】ローカルLLMの色々な動かし方まとめ
aratako
8
4.4k
松尾研LLM講座2024 最終コンペ解法
aratako
0
270
Other Decks in Technology
See All in Technology
AI時代のワークフロー設計〜Durable Functions / Step Functions / Strands Agents を添えて〜
yakumo
3
2.2k
MySQLのSpatial(GIS)機能をもっと充実させたい ~ MyNA望年会2025LT
sakaik
0
120
AgentCoreとStrandsで社内d払いナレッジボットを作った話
motojimayu
1
940
マイクロサービスへの5年間 ぶっちゃけ何をしてどうなったか
joker1007
20
7.8k
アプリにAIを正しく組み込むための アーキテクチャ── 国産LLMの現実と実践
kohju
0
220
Microsoft Agent Frameworkの可観測性
tomokusaba
1
110
20251219 OpenIDファウンデーション・ジャパン紹介 / OpenID Foundation Japan Intro
oidfj
0
500
AI with TiDD
shiraji
1
280
Amazon Quick Suite で始める手軽な AI エージェント
shimy
1
1.9k
AWS運用を効率化する!AWS Organizationsを軸にした一元管理の実践/nikkei-tech-talk-202512
nikkei_engineer_recruiting
0
170
TED_modeki_共創ラボ_20251203.pdf
iotcomjpadmin
0
150
AIBuildersDay_track_A_iidaxs
iidaxs
4
1.3k
Featured
See All Featured
Leveraging LLMs for student feedback in introductory data science courses - posit::conf(2025)
minecr
0
89
Performance Is Good for Brains [We Love Speed 2024]
tammyeverts
12
1.4k
Leading Effective Engineering Teams in the AI Era
addyosmani
9
1.4k
Being A Developer After 40
akosma
91
590k
How to Align SEO within the Product Triangle To Get Buy-In & Support - #RIMC
aleyda
1
1.3k
職位にかかわらず全員がリーダーシップを発揮するチーム作り / Building a team where everyone can demonstrate leadership regardless of position
madoxten
51
45k
Lightning Talk: Beautiful Slides for Beginners
inesmontani
PRO
1
410
Breaking role norms: Why Content Design is so much more than writing copy - Taylor Woolridge
uxyall
0
120
Darren the Foodie - Storyboard
khoart
PRO
0
1.9k
Lightning talk: Run Django tests with GitHub Actions
sabderemane
0
92
GraphQLの誤解/rethinking-graphql
sonatard
73
11k
Discover your Explorer Soul
emna__ayadi
2
1k
Transcript
安いGPUレンタルサービスについて 2025/12/6 ローカルAIに向き合う展示会 Aratako
自己紹介 主にLLMのモデルやデータセットなどを個人開発しています 各種リンク X (Twitter) @Aratako_LM
概要 • 安いGPUレンタルサービスについて話します • 自分で触ったことのあるものにだけ触れます • 個人で簡単に使えるものだけ触れます ◦ 法人向けや学生、研究機関向けのものなどには触れない
Runpod • Good ◦ Community Cloudの値段は安め ◦ Secure Cloudは信頼性が高い ◦
利用できるGPUの種類が非常に豊富 ◦ 自前のコンテナイメージを登録可能で、 テンプレートも豊富でとても使いやすい ◦ マルチノードの利用も可能 • Bad ◦ ストレージコストを入れると意外と安くない ◦ Community Cloudはやや信頼性が低い ▪ 回線が遅かったり、GPUのパフォーマンスが低めだったり 価格(一部抜粋) B200: $5.19 / h H200 SXM: $3.59 / h H100 SXM: $2.69 / h A100 SXM: $1.49 / h RTX 5090: $0.89 / h https://www.runpod.io
Lambda Cloud • Good ◦ GH200が安い ◦ ネット回線が速い ◦ それなりの量のストレージが付属(GH200の場合4TiB)
◦ マルチノードの利用も可能 ▪ スライド作成時に試したところB200 192ノード(1536枚) とかも選択できた • Bad ◦ 機能的にはシンプル ◦ GPUの空きが少ないことが多い ◦ 用意されている環境は最低限で、自分で構築が必要 価格(一部抜粋) B200: $4.99 / h H100 SXM: $2.99 / h GH200: $1.49 / h A100 SXM: $1.29 / h A6000: $0.80 / h https://lambda.ai
HPC-AI • Good ◦ 全体的に価格は安め ◦ それなりの量のストレージが付属(B200の場合8TiB) ◦ 一応マルチノードでの利用も可能らしい ▪
ただし設定はユーザ側で • Bad ◦ ネット回線が非常に遅い ▪ 300Mbpsを複数ユーザで共有 ◦ 8枚単位でしか利用できない ◦ GPUの空きが少ないことが多い ◦ 環境は自分で構築する必要がある 価格 B200: $3.05 / h H200 SXM: $2.19 / h RTX 5090: $0.74 / h RTX 4090: $0.55 / h https://www.hpc-ai.com
DeepInfra • Good ◦ B200が非常に安い ◦ ネット回線が速い ◦ それなりの量のストレージが付属(B200の場合2TiB /
GPU) • Bad ◦ B200しかない ◦ シングルノードのみ対応 ◦ GPUの空きが少ないことが多い ◦ 環境は自分で構築する必要がある 価格 B200: $2.49 / h https://deepinfra.com
Vast.ai • Good ◦ 安いものを選べば値段は安い ◦ GPUの種類は非常に豊富 • Bad ◦
信頼性が低い ▪ 安定性、パフォーマンス、ネット回線など ▪ 一応Secure Cloudのような分類はある ◦ セキュリティ的なリスク高め ◦ ストレージコストを入れると意外と安くない ◦ RAMやストレージなどのスペックがマシンごとに 異なり確認すべき点が多く使いづらい 価格(12/4最安) B200: $3.338 / h H200 SXM: $2.002 / h H100 SXM: $1.513 / h A100 SXM: $0.565 / h RTX 5090: $0.309 / h https://vast.ai
DigitalOcean • Good ◦ MI300Xが安い ◦ AMDと公式に提携しているので信頼性が高い ◦ 各種便利機能も充実している ◦
それなりの量のストレージが付属 • Bad ◦ NVIDIA GPUは高め ◦ AMD GPUを使う場合環境起因の不具合等に注意 価格(一部抜粋) MI300X: $1.99 / h H200: $3.44 / h H100: $3.39 / h L40S: $1.57 / h 6000 Ada: $1.57 / h https://www.digitalocean.com
実際何を使ってる? • 小規模な実験 ◦ RunPodの小さなGPU(VRAM 24GB、48GBクラス) • 中規模な実験 ◦ Lambda
CloudのGH200 ◦ DeepInfraのB200 x 1 • 大規模な実験 ◦ HPC-AIのH200 x 8 ◦ DeepInfraのB200 x 8 ◦ AMD Developer Cloud(DigitalOcean)のMI300X x 8