Upgrade to Pro — share decks privately, control downloads, hide ads and more …

リクルートの オンプレ環境の未来を語る

リクルートの オンプレ環境の未来を語る

2025/2/19に開催したRecruit Tech Conference 2025の関の資料です

Recruit

March 06, 2025
Tweet

More Decks by Recruit

Other Decks in Technology

Transcript

  1. 今日話すこと リクルートのプライベートクラウド「RAFTEL」上で将来やりたいこと • RAFTELの規模と消費電力の話 (1min) • GPU基盤をオンプレミスへ持ってくる話 (3min) ◦ データ推進室と我々インフラ組織の共同検証である

    ◦ 今日はインフラ側の視点でのみ話す • サーバーの冷却の話 (7min) ◦ 液冷・液浸の検証環境を作ろうとしている話 • まとめ (1min) 注意事項 • RAFTELの話というよりは上記の技術検証・導入検討の話に終始する予定です • 現在進行中のプロジェクトのため、結論はありません • 現時点で検討中の内容のため、明日には言っていることが変わる可能性もあります
  2. リクルートのプライベートクラウドであるRAFTELは下表のような規模で運営されている。 リクルートホールディングス全体の約5.5%がIT機器/DC関連のCO 2 排出 (≒電力使用) である。 RAFTELの規模 物理サーバー台数 約1,000台 ラック数

    約150ラック ストレージ総容量 1.5PB以上 ドメイン数 4,000ドメイン以上 仮想マシン数 約4,000VMs 利用サイト数 約100サイト ネットワーク機器台数 約360台 年間使用電力量 約280万kWh
  3. リクルートのインフラ利用状況 プロダクト系 (エンジニア組織) はオンプレミスとパブリッククラウドを共に利用しているが、 データ系は100%をパブリッククラウドに依存している状況がある。 プロダクト系 データ分析/AI系 オンプレミス (プライベートクラウド) ⚪

    (RAFTEL) × 現状、存在していない パブリッククラウド ⚪ (AWS/GCPなど) ⚪ (AWS/GCP/OCI) プロダクト系では用途ごとに オンプレミス/パブリッククラウドの 使い分けができる構造にある。 データ分析/AI系では オンプレミスの環境が存在せず、 パブリッククラウド一択の現状。
  4. リクルートのインフラ利用状況 プロダクト系 (エンジニア組織) はオンプレミスとパブリッククラウドを共に利用しているが、 データ系は100%をパブリッククラウドに依存している状況がある。 プロダクト系 データ分析/AI系 オンプレミス (プライベートクラウド) ⚪

    (RAFTEL) × 現状、存在していない パブリッククラウド ⚪ (AWS/GCPなど) ⚪ (AWS/GCP/OCI) プロダクト系では用途ごとに オンプレミス/パブリッククラウドの 使い分けができる構造にある。 データ分析/AI系では オンプレミスの環境が存在せず、 パブリッククラウド一択の現状。 オンプレミスにGPU環境を持ち、ワークロードによって オンプレミス/パブリッククラウドを選択できるようにすることにより、 • コスト的なメリット • パブリッククラウドのGPUインスタンス不足への対応 • 仮にクラウドが駄目となってしまった場合の 行き先(技術者・環境)作り などの点でメリットがあると考えている。
  5. データテクノロジーUとプロダクトインフラU プロダクト開発室 データ推進室 プロダクト ディベロップメント室 データテクノロジーU プロダクトインフラU ・・・ ・・・ 開発ディレクション部

    組織はこのくらい離れている プロダクトディベロップメント室はエンジニア組織としてプロダクトを開発しており、 一方、データ推進室ではサービスで取得したデータの分析やサービスへの活用を行っている。 中でも、プロダクトインフラUはプロダクトを動かすための共通インフラを維持・管理しており、 データテクノロジーUは各サービスへの技術支援や全社横断の技術検証などを行っている。
  6. GPUサーバーの導入検討 プロダクト系 (エンジニア組織) はオンプレミスとパブリッククラウドを共に利用しているが、 データ系は100%をパブリッククラウドに依存している状況がある。 現在見えている点として以下のような項目がある。 1. オンプレミスへ持ってくるとして、どのような用途のサーバーで旨味があるか? → 推論用の規模でオンプレミスのメリットが大きそうという結論

    2. HW構成はどうするか? → GPUはNVIDIA一択なのか?など広く検討中 3. サーバー以外の構成 (ネットワーク・ストレージなど) はどのようにするか? → 未検討、GPUサーバー特有のお作法があるため それとRAFTELの現行構成との間に折り合いをつける必要がありそう 4. OSや仮想化レイヤについてどのようにするのが最適か? → 未検討 この後のサーバー冷却の話なども密接に絡んでおり、 現在複合的に検討を進めている最中である。
  7. RAFTEL標準サーバー Server 1 Server 2 Server 3 Server 4 搭載CPU

    (TDP) Intel Xeon E5-2667v4 (135W) Intel Xeon Gold 6146 (165W) Intel Xeon Gold 6342 (230W) Intel Xeon Gold 6438M (205W) コア数 [Cores/2Sockets] 16 24 48 64 メモリ搭載量 [GB] 256 384 768 1024 入力電力/実効消費電力 515W/270W 490W/306W 670W/455W 670W/455W 搭載数 [Nodes/Rack] 24 24 16 16 RAFTELのサーバーは4世代が混在しており、それぞれ以下のような諸元となる
  8. RAFTEL標準サーバー Server 1 Server 2 Server 3 Server 4 搭載CPU

    (TDP) Intel Xeon E5-2667v4 (135W) Intel Xeon Gold 6146 (165W) Intel Xeon Gold 6342 (230W) Intel Xeon Gold 6438M (205W) コア数 [Cores/2Sockets] 16 24 48 64 メモリ搭載量 [GB] 256 384 768 1024 入力電力/実効消費電力 515W/270W 490W/306W 670W/455W 670W/455W 搭載数 [Nodes/Rack] 24 24 16 16 RAFTELのサーバーは4世代が混在しており、それぞれ以下のような諸元となる CPUの高性能化によってコア数は4倍になったが、 必要な電力量も倍近くにまで増加
  9. RAFTEL標準サーバー Server 1 Server 2 Server 3 Server 4 搭載CPU

    (TDP) Intel Xeon E5-2667v4 (135W) Intel Xeon Gold 6146 (165W) Intel Xeon Gold 6342 (230W) Intel Xeon Gold 6438M (205W) コア数 [Cores/2Sockets] 16 24 48 64 メモリ搭載量 [GB] 256 384 768 1024 入力電力/実効消費電力 515W/270W 490W/306W 670W/455W 670W/455W 搭載数 [Nodes/Rack] 24 24 16 16 RAFTELのサーバーは4世代が混在しており、それぞれ以下のような諸元となる TDPの上昇によって消費電力は今後も増加する見込み (次期サーバーにおいてはTDP500WのCPUまで検討中)
  10. RAFTEL標準サーバー Server 1 Server 2 Server 3 Server 4 搭載CPU

    (TDP) Intel Xeon E5-2667v4 (135W) Intel Xeon Gold 6146 (165W) Intel Xeon Gold 6342 (230W) Intel Xeon Gold 6438M (205W) コア数 [Cores/2Sockets] 16 24 48 64 メモリ搭載量 [GB] 256 384 768 1024 入力電力/実効消費電力 515W/270W 490W/306W 670W/455W 670W/455W 搭載数 [Nodes/Rack] 24 24 16 16 RAFTELのサーバーは4世代が混在しており、それぞれ以下のような諸元となる 電力と冷却をボトルネックとして、 1ラックに積めるサーバー台数が徐々に減っている
  11. RAFTEL標準サーバー Server 1 Server 2 Server 3 Server 4 搭載CPU

    (TDP) Intel Xeon E5-2667v4 (135W) Intel Xeon Gold 6146 (165W) Intel Xeon Gold 6342 (230W) Intel Xeon Gold 6438M (205W) コア数 [Cores/2Sockets] 16 24 48 64 メモリ搭載量 [GB] 256 384 768 1024 入力電力/実効消費電力 515W/270W 490W/306W 670W/455W 670W/455W 搭載数 [Nodes/Rack] 24 24 16 16 RAFTELのサーバーは4世代が混在しており、それぞれ以下のような諸元となる 電力と冷却をボトルネックとして、 1ラックに積めるサーバ台数が徐々に減っていく つまり... サーバーの高性能化に伴ってサーバー台数を減らすことはできたが、 サーバーラック台数を減らすことはほとんどできていない
  12. マシンルーム全体を空気により冷やしている サーバー冷却手法 ~空冷と液冷~ 日本における現在の冷却手法の主流は空冷であるが、 これを液冷とすることにより効率が向上する。 液体 空気 空気 液体 液体

    発熱部品を直接液体冷却するため部屋の冷却は不要 チラー チラー 空冷 液冷 CPU/GPU CPU/GPU サーバーのファン エアコン ロス ロス 熱交換機
  13. マシンルーム全体を空気により冷やしている サーバー冷却手法 ~空冷と液冷~ 日本における現在の冷却手法の主流は空冷であるが、 これを液冷とすることにより効率が向上する。 液体 空気 空気 液体 液体

    発熱部品を直接液体冷却するため部屋の冷却は不要 チラー チラー 空冷 液冷 熱交換機 CPU/GPU CPU/GPU エアコン ロス ロス ロス サーバーのファン
  14. マシンルーム全体を空気により冷やしている サーバー冷却手法 ~空冷と液冷~ 日本における現在の冷却手法の主流は空冷であるが、 これを液冷とすることにより効率が向上する。 液体 空気 空気 液体 液体

    発熱部品を直接液体冷却するため部屋の冷却は不要 チラー チラー 空冷 液冷 CPU/GPU CPU/GPU エアコン ロス ロス ロス ロス 熱交換機 サーバーのファン
  15. 液体冷却手法 ~リアドア冷却~ 冷気 暖気 冷気 冷気 通常の空冷ラックにおいては、 室温の空気を吸気し、 サーバーの熱とともに大気排出する。 リアドア冷却の場合、マシンルームへ排気する前に

    ラックの後部で気体の冷却を行う。(上図破線部分) リアドア冷却は一般的に液体によって行うため、 マシンルームには水冷配管を要するが、 サーバー本体は空冷用のものを利用可能 チラーとの冷却水の交換
  16. 液体冷却手法 ~直接液体冷却~ CPUのみ液体冷却 (残りの熱は空冷) CPU・GPU・RAM・NI Cを液体冷却 (100%をDLC) Coolant Distribution Unit

    (CDU) サーバーへ クーラントを送る管 直接液体冷却 (Direct Liquid Cooling: DLC) はベンダー各社によって対応状況が異なり、 CPUのみ液体冷却が可能・100%をDLCにて熱除去可能などさまざまである。 チラーとの 冷却水の交換
  17. 液体冷却手法 ~液浸冷却~ 液槽 熱交換器 (CDU) 1. 加熱された冷却液は サーバーラックから排出され、 熱交換器 (CDU)

    へと向かう。 2. 熱交換器はチラーから送られてきた 冷却水と熱交換を行う。 液槽から送られてきたクーラントは 冷やされ、再度液槽へ向かう チラー
  18. 液体冷却手法 ~液浸冷却~ 液槽 熱交換器 1. 加熱された冷却液は サーバーラックから排出され、 熱交換器 (CDU) へと向かう。

    2. 熱交換器はチラーから送られてきた 冷却水と熱交換を行う。 液槽から送られてきたクーラントは 冷やされ、再度液槽へ向かう チラー
  19. 液体冷却手法 ~各手法比較~ 冷却タイプ 想定PUE 対応可能熱量 導入コスト ランニング コスト 設置難易度 部品故障率

    発揮できる性能 空冷 1.6 ~ 2.2 ~15kVA 低 中 低 高 低 リアドア 1.2 ~ 1.6 ~50kVA 中 中 中 高 中 直接液冷 (DLC) 1.01 ~ 1.4 50kVA ~無制限 中 低 中 中 中〜最高 液浸 1.02 ~ 1.1 無制限 高 中 高 低 高 前ページまでの内容をまとめると、各手法は相対的に以下のように言える。
  20. 液体冷却手法 ~各手法比較~ 冷却タイプ 想定PUE 対応可能熱量 導入コスト ランニング コスト 設置難易度 部品故障率

    発揮できる性能 空冷 1.6 ~ 2.2 ~15kVA 低 中 低 高 低 リアドア 1.2 ~ 1.6 ~50kVA 中 中 中 高 中 直接液冷 (DLC) 1.01 ~ 1.4 50kVA ~無制限 中 低 中 中 中〜最高 液浸 1.02 ~ 1.1 無制限 高 中 高 低 高 前ページまでの内容をまとめると、各手法は相対的に以下のように言える。 これらの手法を現在検討中
  21. 液冷サーバーの検討状況 RAFTELで液冷サーバーを導入すると以下のようなメリットが考えられるため、 導入する冷却手法などについて鋭意検討中 • サーバーラック台数の減少による不動産コストの大幅削減ができそう • サーバーラックの減少によるエッジスイッチの大幅削減が可能になる • 電力使用の効率化による電気代の削減ができる •

    電力使用の低減によるリクルートホールディングスのカーボンニュートラル目標への寄与 • 冷却能力の向上により、CPU (GPU) の性能向上 (サーマルスロットリングを回避) 現在、データセンター側で液冷用の部屋を増築中のため、 液冷用の部屋の提供スケジュールが決まり次第、本検討を加速していく予定である。