Upgrade to Pro — share decks privately, control downloads, hide ads and more …

MySQLやSSDとかの話 その後

Sponsored · Ship Features Fearlessly Turn features on and off without deploys. Used by thousands of Ruby developers.

 MySQLやSSDとかの話 その後

後日談です。

Avatar for Takanori Sejima

Takanori Sejima

December 16, 2016

More Decks by Takanori Sejima

Other Decks in Technology

Transcript

  1. Copyright © GREE, Inc. All Rights Reserved. 自己紹介 • わりとMySQLのひと

    • 3.23.58 から使ってる • むかしは Resource Monitoring も力入れてやってた • ganglia & rrdcached の(たぶん)ヘビーユーザ • 6年くらい前から使い始めた • gmond は素のまま使ってる • gmetad は欲しい機能がなかったので patch 書いた • webfrontend はほぼ書き直した • あとはひたすら python module 書いた • ganglia じゃなくても良かったんだけど、とにかく rrdcached を使いたかった • というわけで、自分は Monitoring を大事にする • 一時期は Flare という OSS の bugfix などもやってた
  2. Copyright © GREE, Inc. All Rights Reserved. • 古いサーバを、新しくてスペックの良いサーバに置き換えていく際、いろい ろ工夫して集約していっているのですが

    • 実際にいろいろ使ってきて見えてきたことや、今後について考えることも増 えてきたので • 今日はそんなお話をしようと思います • 今回はあまりMySQLの話はありません • わたしはいろいろ変なこと考えてますが • 引き続き、細かいところは優秀な若手の実働部隊が頑張ってくれてます 本日のお話
  3. Copyright © GREE, Inc. All Rights Reserved. • まだ読まれたことのない方は •

    後日、あわせて読んでいただけると、よりわかりやすいかと思います • 過去の資料 • MySQLやSSDとかの話 前編 • MySQLやSSDとかの話 後編 本日のお話の補足資料
  4. Copyright © GREE, Inc. All Rights Reserved. • GREEのサービスは歴史が古い •

    むかしから動いてるMySQLのサーバは、かなり sharding されていた • 2000年代、GREEは SAS HDD 146GB 15krpm * 4本使ったRAID10の前提で、 データベースを設計してるところが多かった • 15krpm だと それくらいの容量の製品しかなかった • そういうストレージでも動くように、データベースのサイズは 100-200GB以下のものが 多かった • わたしが入社した2010年のころは、よくサービスささっていて、各エンジニ アが協力して改善してた • アプリケーションレイヤーでがんばってもらったり、力の限り sharding したり かつてのGREEのサーバ
  5. Copyright © GREE, Inc. All Rights Reserved. • HDD前提の設計だと、サーバの台数が増えまくる。電力効率も良くない •

    HDD前提のDBだと、HDDがボトルネックになって、CPU使い切れないケースが多い • HDDを基準に sharding していくと、一台のサーバでさばく qpsはどうしても低くなって、 CPU使用率はあまり上げられない • むかしは積めるDRAMの量も少なかったし、メモリの帯域はそれほど多くなかった • そもそもHDDがそれなりに電力を食う • SAS 15krpm だと一本で 10W 以上かな? • 結果、ラック単位で見たときに消費電力効率が良くない • HDDの占める消費電力がそこそこ大きかった時代 • そんな中、 SSD の価格は下がり続けており • SSD の進化にあわせてサーバの構成を見直すことで、ランニングコストを 削減し、サービスの競争力を維持しようと試みた サービスとしては改善したんだけど
  6. Copyright © GREE, Inc. All Rights Reserved. • Fusion-IO 流行し始めたころ、調達できたのは

    ioDrive MLC 320GB • ほとんどのDBは、HDDでも動くように sharding など工夫していたから、 320GB という少ない容量は使いドコロが難しかったので • 長考して長考して長考して • ioDrive の、桁違いに低い latency に着目して • ストレージというより「ちょっと遅いメモリ」と考えて • MySQL の buffer pool を減らし、大量の connection 張れるように、 大量のqueryを受けられるように、メモリの割り当て方を変更した • 詳しくはこちら まずはそこそこの容量の ioDrive
  7. Copyright © GREE, Inc. All Rights Reserved. • 新しいハードウェアに対する心理的障壁として、「特性がわからない」「どん な壊れ方をするかわからない」というものがある

    • ioDrive を、ある程度まとまった台数酷使したことによって、どんなふうに 故障するのかが、つかめてきた • ioDrive 導入以前より、 NAND Flash への心理的障壁はだいぶ取り除 かれてきたので、そろそろ次のステージに行ってもいいころ • そうこうしていたら ハードウェアは壊れるまで使ってナンボ
  8. Copyright © GREE, Inc. All Rights Reserved. • 時は流れ、NAND Flash

    の価格が下がり、大容量化が進んでいった • 800GB以上のエンタープライズ仕様のSSDが普通に買えるようになった • これは使いたい • 当時、容量大きいSSD使ってる他社事例それほど多くは聞かなかったので、使ってやり たい • いまは珍しく無いと思いますけど • 他社が活用できてないものを活用することによって、サービスの競争力を向上させる • SSD は random I/O 性能が高いし、15krpm の SAS HDD でRAID 組むより消費電力少ないので • ラック単位で考えたとき、よりCPUに電力を回せるようになる NAND Flash の価格が下がってきた
  9. Copyright © GREE, Inc. All Rights Reserved. • SSDにリプレースしなくても動かせるDBが大量にあった •

    100-200GB程度しかないDBでは、800GBのSSDは無用の長物ではな かろうか? GREEは力の限り sharding していた
  10. Copyright © GREE, Inc. All Rights Reserved. • DBが100-200GB程度しかないなら、サービス無停止で master

    統合す ればいいってことで、サービス無停止で master 統合する方法を考えた • DBが巨大になるとバックアップとるのに時間かかるようになるし、管理が 大変になるので、大きく運用を変えない範疇で、バックアップの取り方を変 更することにした DB統合するしバックアップの取り方も変える
  11. Copyright © GREE, Inc. All Rights Reserved. • HDDのころは、masterとslaveは146GBのHDD*4でRAID10だった が、

    バックアップファイルを取得するためのslaveはHDD*6とかHDD*8 とかで、データベース用の領域と、バックアップファイルを書き出すための 領域を確保できるようにしてた • 具体的には、 mysqld 止めて datadir を tar ball で固めてた • つまり、masterのサーバとバックアップファイルを取るためのサーバは、 ストレージの容量が等しくなかった かつてのバックアップの取り方
  12. Copyright © GREE, Inc. All Rights Reserved. • バックアップサーバとmasterで同じ容量のSSD使うと、バックアップを取 ることができない

    • DBで800GB使いきっちゃうと、 tar ball とれない • 数TBの大容量 PCI-e SSD をバックアップサーバ用に使う? • それはリッチすぎるコストパフォーマンスが悪い • HDDだとI/Oの性能が追いつかない • DBを統合するということは、それだけ更新が増えるということでもある • SSDをRAIDコントローラで束ねる? • そうするとRAIDコントローラがボトルネックになるケースも出てくる • かつては、RAIDコントローラ経由だと SMARTがとれないという課題もあった 一番容量のでかいSATA SSDを使いたい
  13. Copyright © GREE, Inc. All Rights Reserved. • HDDもSSDも、ブロックデバイスは、一つのI/Oコントローラに対して read

    と write を同時に発行すると遅い • read only ないし write only のときに最大のスループットがでる • RAIDで束ねたHDD上で tar ball 取得するの、データベースが大きくな るに連れて、無視できない遅さになってきていた • SSDに移行したとしても、このままだといつか遅くなって困るんじゃない? 大容量のSSDを使う前から、課題意識はあった
  14. Copyright © GREE, Inc. All Rights Reserved. • master/slave/バックアップサーバをぜんぶ 800GB

    のSSDにする • バックアップサーバは ssh 経由で、同じラックにある SATA HDDの RAID6なストレージサーバに tar ball を書き出す • $ tar cvf - ${datadir} | pigz | ssh ${storage_server} “cat - >backup.tar.gz” • SSDなので tar するときの read は速い • pigzでCPUのcoreぜんぶ使いきって圧縮するので、帯域制限にもなるし、 通信量もへる。まぁ、ラックをまたがないので、全力で転送しても困らない • HDDは sequential write only になるので、書き込むのは充分速い • 運用や監視も、既存の方法と比べて大きくは変えなくて良い 方法を変える、許容できる範囲内で
  15. Copyright © GREE, Inc. All Rights Reserved. • データが巨大になると、DB再構築するのに時間がかかるようになる •

    今までN+1の構成だったところはN+2にする • slaveは一台多めにしておく。一台故障したら、もう一台故障する前にじっくり再構築 • ストレージサーバは RAID6 にする。 SATA HDD の故障率を考慮して • ストレージサーバはTB単位のデータを持っているため、電源などが故障したときのダメー ジがでかいので、二台構成にする。 • バックアップサーバから書き出す先は現行系のストレージサーバにして、待機系は cron で rsync してコピーする • ストレージサーバは SATA HDD にしたから大容量にできたので、ストレージサーバ1台 に対して、書き込むバックアップサーバは複数台にする。それならば、ストレージサーバを 2台構成にしてもコスト的にペイする • 最終的に、トータルで台数減ればそれでいい 破綻しないよう、考えながら集約する
  16. Copyright © GREE, Inc. All Rights Reserved. • Google の

    Warehouse-Scale Computer ほど大きい粒度ではなく、4 本以上のラックを一つの単位として考える • replication の traffic は、これらのラックに閉じ込めてしまう。 • RAID5がパリティを複数のディスクに分散させるように、masterやバック アップ用のサーバを複数のラックに分散させる • 万が一、ラックごと落ちたとしても、影響を受ける master の数を限定的にできる • master -> slave 間の replication の traffic が、ラックごとに偏りにくくなる • アプリケーションサーバ <-> slave の traffic が多かったとしても、ラックごとに偏りに くくなる • バックアップサーバを分散配置することで、ストレージサーバのディスク使用量を、ラック ごとに偏らせないようにする 複数のラックをグルーピングし、RAID5の様に扱う
  17. Copyright © GREE, Inc. All Rights Reserved. • 現状のHWの特性や、今後のHWを想定している •

    サーバのNICの帯域が増えても、これらのラックの集合の中でその性能が活かせる • 弊社の場合、KVSの replication の traffic が大変多いのだが、 KVSやMySQLの replication の traffic を特定のラックに集約できると、運用上楽になる • pigz でバックアップファイルを圧縮するので、 DBの集約度が上がってDBのサイズが増 えても、CPUのコアが増えれば、バックアップの取得時間を稼ぐことができる • SSDの消費電力の少なさを活かして、一ラックあたりの集積度を上げていける • SSDは消費電力が少なく熱にも強いから、そのぶん CPU で TurboBoost 使って、熱 出しつつ性能を引き出す方向で行ける • TurboBoost 使うことで、NICの帯域が増えても、CPUがパケットさばけるようにする • 現状はSATAのHDDをバックアップ用のストレージに割り当てているけど、 SSD のバイ ト単価が十分下がっていけば、別に SSD でもかまわない このラックの使い方には、いろいろな思惑がある
  18. Copyright © GREE, Inc. All Rights Reserved. • エンタープライズ仕様のSATA SSD

    でも、1TB超の製品が出てきた • 3D NAND が実用化してきているので、容量は来年以降もまだまだ増え ていく • わたし的には、まだまだ集約していけると思う。少なくともバックアップサー バは • 仮に master/slave が 800GB 以下のままでも、 バックアップサーバであれば、 mysqld を複数プロセス相乗りしてもそれほど困らないので • バックアップサーバだけ、800GBより大きい SSD 積んだっていい • 例えば、バックアップサーバに 1.6TB くらいの SSD を積んで、 mysqld を2プロセス 起動して、 800GB の SSD つんだ master 二台と replication しても良い SSDの進化はめざましい
  19. Copyright © GREE, Inc. All Rights Reserved. • ssh 経由で、同じラックにある

    SATA HDDの RAID6なストレージサーバ に tar ball を書き出す方法、うまくいったんだけど • SSD は書き込み寿命という概念があるので、 DB のフルバックアップを定期的に SSD へ書き込むのはあまりうれしくないが、バックアップの書き込み先が HDD なら、定期的 にフルバックアップ書き込んでも、別に困らない • SATA HDD は 24時間365日フル稼働させると設計的にきびしい製品もあるが、 daily のバックアップ保存先として使うなら、 24時間フル稼働するわけではない • 書き込み寿命の概念があるけど高速な SSD は、お客様向けのサービスに使って、書き 込み寿命の概念がないけど安価な HDD は、バックアップの保存先に使う • そんな具合に上手く行ったんだけど • ストレージサーバの HDD の容量を増やして集約率を上げていくなら、見 なおして良いポイントが幾つかあるなと、実稼働させていくうちに見えてき た サーバの構成を見なおしてもいいころ
  20. Copyright © GREE, Inc. All Rights Reserved. • ストレージサーバのCPUはスカスカなので、CPU 1socket

    に対して、もっ と大容量のストレージが扱える • バックアップサーバから書き込むとき、ストレージサーバは sshd くらいしか CPU 使わな いのだが、 sshd 1プロセスで複数のコア使えなくても、複数のバックアップサーバから書 き込んでいるので、結果的にストレージサーバのコアは複数使いこなせている • バックアップサーバが pigz で圧縮したものをストレージサーバに書き込んでいるので、 ssh で暗号化するデータもストレージに書き込むデータも、圧縮済みで最小化できてい る。 • そのため、ストレージサーバの CPU 負荷は低かった。 • その結果、ストレージサーバで増やしたいリソースは次のような印象 • NICの帯域 >= ストレージの容量 >>> (越えられない壁) >>> disk の書き込み負 荷 >>> CPU 使用率 ひとつひとつ、サーバ上のリソースを見直していく
  21. Copyright © GREE, Inc. All Rights Reserved. • GbE 経由では

    120MB/sec 程度でしか書き込めないが、いまどきの HDD とRAIDコントローラだと、RAID6 でも 120MB/sec なんて余裕す ぎる(HDDの本数によるでしょうが) • RAIDコントローラをもっと酷使するためには、 GbE では全く足りないので 、10GbE 以上の帯域を用意するしかない • NIC の帯域が太くなると、 tar ball 書き出す時間を短縮できるので、 DB のサイズが大きくなっても運用上さしつかえないし、ストレージサーバのス トレージの容量を増やしてもいい 少なくとも 10GbE
  22. Copyright © GREE, Inc. All Rights Reserved. • 巨大すぎる RAID

    は、リビルドにかかる時間が長くなる • リビルドの時間が、 HDD 一本あたりの容量と本数に比例するなら、わたしは容量を犠 牲にしようと思う • HDD の本数が増えて消費電力増えたとしても、性能面などでのメリットがあればいい • ラック単位で考えたとき、電力面でバランスが取れていればそれでいい • 可能であれば、1台のサーバにRAIDコントローラを複数積みたい • 一つのRAIDコントローラにぶら下がってる HDD の本数が減れば、リビルドの時間はそ れだけ減らせる。なので複数積んで、管理する HDD を分散させる。 • どうせ複数のバックアップサーバから書き出すので、 RAIDコントローラごとにボリューム分か れていても困らない • バックグラウンドでリビルド走ってるときも、リビルド走ってない方のコントローラは、性能に影 響しないだろうし RAIDはあまり大容量すぎても意味が無い
  23. Copyright © GREE, Inc. All Rights Reserved. • ある程度まとまった本数の HDD

    を積めるならば、 RAID6 より RAID60 にして書き込み性能を改善させる • HDD の特性として、円盤の外周と内周で性能差が出るケースはあるだろうから、性能に はある程度余裕をもたせておいたほうがいい。 • 実際にファイルを書き出したり削除したりすると、必ずしも局所的なアクセスになるとは限らな いだろうし • NIC の帯域に対してある程度余裕を持たせておいて、あくまでも「ボトル ネックは NIC の帯域」となるようにしておいたほうが、運用がシンプルに なって良い • NIC に合わせて設計するときに難しい点は、 NIC の帯域が1.5倍くらいのペースで増 えるのではなく、 GbE から 10GbE など、いきなり倍以上になってしまうところ。 RAID6 より RAID6+0
  24. Copyright © GREE, Inc. All Rights Reserved. • いくらバックアップファイルを保存するストレージサーバとはいえ、一台に集 約してしまったら、(直接サービスに影響がでないとしても)故障などの障害

    発生時、復旧のための運用上のコストは、かなりきびしいものになる • 複数のラックに分散配置して、万が一のときでも、復旧作業の作業コスト が、許容できる範囲に収まったほうが良い • 消費電力高いパーツを大量に積んだサーバを、一つのラックに集中して配 置してしまうと、突入電力の面でも懸念が残る 程よい大きさのストレージを、分散配置するのがよい
  25. Copyright © GREE, Inc. All Rights Reserved. • ストレージサーバに 10GbE

    を積んでも、ストレージサーバにバックアップ 書きだすサーバが同じラック内にいるだけなら、バックアップのためのトラ フィックは、上流のコアスイッチを経由しない • 仮に、 GbE を積んだ10台のバックアップサーバと、 10GbE のストレー ジサーバが全力で通信して 10Gbps 目一杯使うとしても、その通信が ラック内で完結しているなら、ネットワーク機器の設備投資は、局所的なも ので済ませられる • そのようなバックアップサーバとストレージサーバのセットが複数のラックに 分散配置できていれば、大容量のバックアップを高速に取得できる • もし、オンプレミス環境からクラウドストレージにバックアップを書き出すとし たら、このようにネットワークの帯域を使うことは、コスト面で難しいだろう トラフィックがラックの中で完結するメリット
  26. Copyright © GREE, Inc. All Rights Reserved. • ストレージサーバ1台に毎日書き出したいバックアップの総量は、何TBな のか?それを何時間で書き込みたいのか?

    • 時間的に GbE の帯域で足りるのか?足りないなら、 10GbE の帯域に 見合うだけの書き込み性能を、RAIDコントローラは持っているのか? • バックアップは何日分保存しておきたいのか?それだけの容量を保存する とき、 RAID のリビルドはどれくらいかかるのか?ストレージサーバの再 構築にかかる時間はどれくらいか? • RAID のリビルドにかかる時間を短縮したいなら、RAIDコントローラはいく つ積むべきなのか? • 最終的に、電力や設置スペースなども踏まえて、 HDD で RAID を組む コストメリットはあるのか? 一つ一つ、積み上げて見積もる
  27. Copyright © GREE, Inc. All Rights Reserved. • リビルドにかかる時間などは看過できないけど、実運用に収まる規模であ れば、未だに

    RAID はコストパフォーマンス悪くない仕組み • ある程度の規模になると、分散ファイルシステムなどを検討しなければなら ないだろうけど。障害発生時の復旧コストや、ネットワーク機器への設備投 資など考えると、 RAID を使ったストレージサーバや、同一ラック内からそ のストレージサーバに Ethernet 経由でバックアップを書き出すというの は、現時点では充分選択肢になりうる • 保存するデータの規模や用途、障害復旧の方法、運用コスト等考慮し、自 分たちにとって適切な方法を選んでいくのがよい。 • その一つとして、 RAID はまだ選択肢になりうると思う 要素技術としてみたときの RAID
  28. Copyright © GREE, Inc. All Rights Reserved. • 1TB超のエンタープライズ向け SATA

    SSD、 10GbE 、そういったものに 対して • 2Uくらいのストレージ特化型サーバがあれば、 RAID で 3.5inch SATA HDD を束ねて、ある程度コストパフォーマンスのいいバックアップシステ ムが設計できる • 例えば、 HPE Apollo 4200 のような2Uのサーバ使うとか • Hadoop 以外でも、ストレージ特化型のサーバって意外と使い道あると思 います。容量100TBとかなくてもいいんです。HDDたくさん積めれば、使 い道はあるんです。 SSD 積んだサーバの、補助記憶装置的に捉えれば いいんです。 現時点でのハードウェアを見渡すと
  29. Copyright © GREE, Inc. All Rights Reserved. • その一方、パブリッククラウドも活用してるし気にしてます。 •

    仮想化というレイヤーを挟まないことによって、 MySQL からハードウェアまでの間を構 成する要素が減るので、何かあったときに調査しやすいのですが • パブリッククラウドのメリットも当然有るので、そのへんはいろいろ比較しながら勉強させ てもらってます。 • 余談ですが、パブリッククラウドでも、 Linux の kernel や TCP に関することについて は、やはりチューニングすべきポイントがあって、そういった意味では、オンプレミス環境 でもパブリッククラウドでも役に立つ知識や経験があります。 • TCP や Linux の kernel に関する知識は、インフラエンジニアである限り、当分役に立 つもんだと思います。 パブリッククラウドをチラチラみつつ
  30. Copyright © GREE, Inc. All Rights Reserved. • (月並みですが)Googleはすごいと思ってます。何がすごいかというと消 費電力効率です。彼らのデータセンターのPUEはハンパないです

    • Googleに限らないですが、パブリッククラウド事業者は、日本以外の、一 つのラックに電力を大量に供給できて、一つのラックにサーバをたくさん詰 める地域でもサービスしてたりします。 • そうすると、日本より空間効率良くなって集約度が上がっていくわけで、日 本よりインスタンス費用が安くなっていきます。 • 極論すると、アメリカ西海岸の方が、パブリッククラウドのインスタンス安い なら、アメリカ西海岸でサービス開発してる人、コスト面で超有利じゃん?と 思うわけです • インスタンスの安い地域と比べて、日本の中でどうやってコストを最適化し ていくか?という課題が常にあると思っています 消費電力効率と空間効率をいかに最適化するか
  31. Copyright © GREE, Inc. All Rights Reserved. • 日本では、スパコンを設置するためのデータセンターを設置する場合、場 所選びが大変なのではないか?と思います。

    • 一方、土地が広い国は、データセンターいくつも作ってスパコンたくさん開 発できる余地があるんじゃないでしょうか? • スパコンはとても電力使うので、消費電力の多いデータセンターをいくつも 設置できるということは、電力効率が良いデータセンターのためのノウハウ が、その地域に蓄積されていくということになるのかもしれません。 • TOP500の国々を見ていると、そんな気がしてきます。 これは非常に個人的な推測なんですが
  32. Copyright © GREE, Inc. All Rights Reserved. • 日本はGreen500で健闘してますが、いかにして電力効率を最適化して いくかっていうのが、日本の土地のことを考えると、方向性としては正しい

    んじゃないかなという気がします。 • 消費電力多いけどclockの高いCPU使いたいなら、パブリッククラウドで、 電気たくさん使える地域でインスタンス立てる方が、今後、どんどんコスト パフォーマンス良くなっていくんじゃないかという気がします。 • そんな中、日本のデータセンターにあるサーバを使いたいなら、いかにして 電力効率を最適化し、ランニングコストを削減していくかが、重要なポイント ではないかなと考えています。 スパコンの世界を眺めて思うのは
  33. Copyright © GREE, Inc. All Rights Reserved. • GREEのサービスはCPUが4Coreくらいの時代から続いてるので、CPUの Coreが10とか20とかなくても、どうにかなるケースが多い。

    • DBはCPUよりもSSDとメモリ。もしCPU使用率高いなら、最適化を試みればいい。 • しかし、ワーストケースとして「すべてのCoreがぶん回されたときの消費電 力」を想定して、ラックに積むサーバの台数を決めなければならない • そうであるならば、BIOSから使うCoreの数を制限して、CPUの消費電力 の上限を設けてしまえばいい • Core数の少ない Low-Core-Count のCPUであれば、使うCoreが少な いと、 TurboBoost でより高いClockに引き上げることも可能になる • MySQL5.6以前であれば、SQL_Thread がシングルスレッドなので、シングルスレッド 性能高いほうが Replication では有利になる MySQLを最適化してくと、そこまでCPU使わない
  34. Copyright © GREE, Inc. All Rights Reserved. • 1Uではなく、 2U4nodeなどの高集約型のサーバをDBに使う

    • master/slaveは複数のラックに分散する設計にできているので、最悪、サーバごと落ち て4node全滅したとしても、影響範囲は限定的にできる。 • BIOSからCPUのCore数を制限して、消費電力を引き下げつつ、 TurboBoostでより高い clock を、より高いシングルスレッド性能を狙う • 1nodeあたり1U未満のサーバであれば、 一ラックあたり46Uしかなくて も、 1ラックあたり 48node くらいを狙える気がしている • ざっくり考えて、1UでDB一台130Wくらいだったけど、110Wくらいを狙えるのでは • 低電圧版のCPU1個で50-60W程度 • DDR4のメモリ1枚が9-10W程度で(クアッドチャネルということでそれが4枚) • SATAのSSDとNICがそれぞれ5-6Wずつ • ファンや残りのパーツで 10Wくらい余裕みて • 電源の力率をざっくり 0.9くらいで考えると • このままだとサーバ1台で 130Wくらいだが、Core を disable してそれを削る。 今後、検討したいこと
  35. Copyright © GREE, Inc. All Rights Reserved. • 10GbEのストレージサーバを組んだことで、バックアップサーバ用のラック は実績が上がってきた。

    • Webアプリケーションサーバ専用ラックとDBサーバ専用ラックを、それらと 切り離して、上手く組んで行ければいいかなと思っている • アプリケーションサーバとDBサーバで専用ラックを別々に組めると、アプリケーション サーバとDBサーバの台数比率を自由にコントロールできるので、柔軟に台数構成を考え られる。 • アプリケーションサーバはCoreたくさんあったほうが集約率上がるので、 Core を Disable にすることはあまり考えてないが、DBはCoreを Disable にすることで、1ラックあたりの集約度を上げていければいいかな と思ってる • 最大で、 1ラック48port 使い切れる範囲内まで disable にするということで バックアップ用HDDは他のラックに確保できたので
  36. Copyright © GREE, Inc. All Rights Reserved. • おそらくきっと、サーバにも 40Gbps

    のネットワークインターフェースが普 及してくる時代になってくるだろうから • 参考: EthernetやCPUなどの話 • 40GbE などが普及する時代になってくると、これらのバランスがまた崩れ てしまう • いまは仮想化しないで localhost 上のSSDを使ってる。ネットワーク経由で disk にア クセスしないで済ませられているので、データセンター内のトラフィックを絞れている。将 来、広帯域のネットワークが充分安価になれば、 localhost 上のSSDを使わない方が、 最終的にランニングコスト下げられるのかもしれない。 • おそらく2020年代には、別の選択肢を考えなければならない • なので、次はどうしようかと、個人的にいろいろ考えてるところです 次の、2020年代には