はいども、ストレージを生業にしているソリューションアーキテクトの宇都宮(うつぼ)です。お久しぶり。
今日はストレージのマニアックな話ではなく、ちょうど1ヶ月前にRed Hat Summit 2020のセッションをご紹介します。やっぱりストレージですけど。
Red Hat Summit 2020 Virtual Experience
今年のRed Hat Summitは新型コロナウイルスの感染拡大を防ぐために史上初のバーチャル開催でした。バーチャル開催になることでGeneral Sessionはもちろん好きなBreakout Sessionが観放題、しかも無料となりました。日本からも結構多くの方がご覧になったのではないかと思います。
※リアルタイムでの視聴はネットワークが混雑しすぎてお世辞にも気持ちいい体験だったとは言えないと思いますが…今後の大きな課題としてとらえます
もちろん我が生業のストレージに関するセッションもありました。インフラスキーな貴兄貴女はストレージのセッション観ていただけましたよね?……よね?
いや観てないというかたのために、今日は1つだけストレージのセッションをピックアップしてご紹介します。ライトな内容なのでおやつタイムにでも読んでいただければと!
The Cloud OS—OpenShift with OpenShift Container Storage
本セッションはDell EMC社, Intel社, Red Hatからそれぞれ1人ずつ、計3人のスピーカーが話しています。
- Arkady Kanevsky
Chief Technologist, Dell EMC, Service Provider Strategy and Solutions, Infrastructure Solutions Group - David Tuhy
VP&GM, Intel, Datacenter Optane Division, Non-volatile Memory Solutions Group - Ranga Rangachari
VP&GM, Red Hat, Red Hat Storage
この3社は10年以上前からコラボレーションしていて、HW/SWともに新しいテクノロジーを採用したインフラを合同で開発/検証したり、Reference Architectureを作ったりなどしています。
そんな3社がいま注目するのはやはりコンテナプラットフォームで、本セッションではOpenShiftとその最適なストレージであるOpenShift Container Storageに関する話を繰り広げます。
ITの"メガトレンド"とストレージに対するチャレンジ
現在のITのメガトレンドは、
①ハイブリッドクラウドまたはマルチクラウドなシステム環境を利用すること
②AIやML(機械学習)といった"データセントリック"な処理を行うこと
です。
最近だと②をやろうと思ったら①みたいなインフラを見据えてやるのかなーと思います。
そしてこれらのトレンドではデータの扱いに対していくつかのチャレンジが出てきますが、おおむね3つに集約できます。『スケーラビリティ、パフォーマンス、ポータビリティ』です。
スケーラビリティ
データセントリックな処理はデータが命です。AIやMLの処理は2桁GB級のデータが必要となることは珍しくなくなり、3桁GB級にも至らんとしています。押せば命の泉湧く、がごとく無尽蔵にデータが増える今日、ストレージのスケーラビリティは必要不可欠でしょう。
ストレージのスケーラビリティは多分にデバイスの容量に依存します。様々な技術の発展によりHDDやSSDといったデバイスの容量はものすごい勢いで増えています。1本40TB超のHDDも出てくるとか。
SSDでは言わずともがな3D NANDですね。bitを保存するメモリセルを鉛直に重ねることで面積あたりの容量を大きくしています。1本100TB超(GBじゃない)のSSDもそろそろ出てくるでしょう。
また分散型のストレージソフトウェア使うことで、ストレージノードを水平方向にいくつもスケールすることができます。パフォーマンス
一方でパフォーマンスには課題が残ります。ストレージのパフォーマンスは詰まるところデバイスの性能に依存しますが、残念ながら容量が増える速度に追いついていません。
用途によりますが、データセントリックな処理においては、ストレージの容量が増えれば格納されるデータが増え、比例して発生するI/Oも増えるのが自然です。
しかしその途中でデバイスのI/O性能が限界に達し、ストレージのパフォーマンスの、ひいてはシステムのボトルネックとなり得ます。デバイスの数を増やせばストレージ全体としてのI/O性能を向上できますが、TCO観点では最適な方法とは言いがたいでしょう。
ここでIntel社のTuhy氏が言うには、「DRAMの代替として開発されたIntel Optaneのような、高速デバイスをSSDの上位層に置くことで、SSDのI/Oボトルネックを解消することができる。より少ないノードとデバイスで同等のパフォーマンスを提供でき、TCOの改善に貢献する」とのこと。
大容量なSATA/SAS SSDやHDDが担えないような性能要求を、Optaneのような3D XPointの技術を使った超高速なデバイスが中間で受けることで、ストレージ全体のパフォーマンスを向上できるということです。
またTuhy氏によると、Optaneを使うことで19ノードのストレージと同じIOs/TBを7ノードで達成できたそうです。デバイスの高速性がノードの数を減らし、結果としてTCOを削減しながらパフォーマンスを満たせるという例です。
- ポータビリティ
スケーラビリティとパフォーマンスは言わばストレージの内部の話でしたが、ポータビリティはストレージの外の話です。データのポータビリティは、ストレージを展開する自由度に帰結します。
「アプリケーションのモデルはモノリシックからマイクロサービスに変遷している。同様にシステム基盤も疎結合なモデルになるべくOpenな技術を利用した”Best of Breed”(それぞれ最適な部品を組み合わせて利用すること)な手法に向かう事は自然な動きである」とはDell EMC社のKanevsky氏。
プラットフォームが存在するのがプライベートクラウドかパブリッククラウドかなどは問わず、全体としての最適化を追求することが好ましいと言うことですね。
また同氏は「AI/MLのような大量のデータを利用する処理は、より素早い意思決定を可能とすべくクラウドのCore部からデータが生まれるEdge部に移って実行される傾向が見られる。よってCore/Edgeを問わず展開でき、容量と性能が共に拡張できるSoftware-defined Storageは必要となる」と言います。いやーほんまええ事言うわぁ。
OpenShift Container PlatformとOpenShift Container Storageが果たす役割
先の通り、AI/MLのようなデータセントリックな処理は、データが生まれるその場所で実行されることが理想的です。わざわざ特定の場所に大量のデータを転送するのは時間もかかるし、ネットワークリソースも必要になるためです。
いかなる環境でも全く同じ処理ができるよう、アプリケーションをコンテナ化して可搬な形態にすることはもはや必要不可欠です。そこで、OpenShift Container PlatformとOpenShift Container Storageはとても大きな役割を果たします。
OpenShift Container Platformは、Private/Publicのクラウド形態や、Core/Edgeといったロケーションの違いを問わず、どのような環境でも展開して稼働できるコンテナプラットフォームです。
そしてOpenShift Container Storageも同様に、OpenShift Container Platformが稼働していればどのような環境でも展開・稼働できるSoftware-defined Storageです。
OpenShift Container Storageは特定のハードウェアやデバイスに依存することがなく、自由度が高いSoftware-defined Storageです。そのためワークロードの要件に応じて大容量なデバイスを使うなり、超高速なデバイスを使うなり、適切な拡張を行うことができます。ワークロードにマッチしたストレージを用意することで、Total Costを引き下げることができます。
Red HatのRanga氏はセッションの最初から最後までOpenShift Container PlatformとOpenShift Container Storageは『ゲームチェンジャー』だと言っています。
OpenShift Container PlatformとOpenShift Container Storageを利用したシステム基盤は、モダンなワークロードが稼働するシステム基盤が直面する3つのチャレンジ、『スケーラビリティ、パフォーマンス、ポータビリティ』の全てに対応ができます。
これらを使った柔軟なシステムプラットフォームを展開することによって、アプリケーションアーキテクチャの変革を促進することができる。まさに『ゲームチェンジャー』ですね。
それでは今日はこのへんで。