Find Communities by: Category | Product

すでに Unity OE4.1 は 12/19 にリリースされており、早いところでは独自で検証された方もいらっしゃると思います。

 

この新しい OE ですがリリース前の 2016年11月にNEC さんにてベータ版を検証いただきました。NEC さんによるベータ版検証では事前に送られてきた操作シナリオに沿って動作の確認を行い、新しい機能における動作を本社から来た製品のエンジニアとともに確認を行いました。また、同時に機能や操作に関する要望も提出しています。延べ 4 日間にわたりカンヅメになってベータ版検証を行ったわけですが、NEC さんとEMCの製品エンジニアはすっかり意気投合し、一緒にお昼ご飯を食べに行ったり、呑み会をしたり、とかなりエンジョイしたようです。こういった人との繋がりは、テスト以上に大きな成果だったかと思います。

 

OE バージョン 4.1 になり、いろいろな不具合の修正も施されていますが、何といっても今回のバージョンでは皆さまが待ちに待っていた「圧縮」の機能が追加されています。この機能は、どのようにオペレーションし、どのような効果があるのか、といったことが気になるところかと思います。実際にツールを使って負荷をかけて、そのときにどのくらいの性能劣化があるのか? なども独自検証されています。また、あまり目立たない存在ですが PFDC という考え方を取り入れています。これは特にスナップショットの性能劣化について見ていただけます。

こちらの検証に関して、詳しくはこちらをご覧ください。

http://jpn.nec.com/emcstorage/hw/unity_verified.html

 

NECさん独自で Unity と NEC Information Assessment System (略称 NIAS) の連携動作試験も行っています。こちらは、ソフトウェアによる「ファイルサーバ統合管理ソフトウェア」で、ファイルサーバの機能的に不足している部分を補完する役割を持っている製品です。内容は「標準機能」と「オプション」に分かれており「見える化」「整理・容量削減」「アクセス権管理」を標準機能とし、リソース管理や個人情報検出をオプションで有します。こちらの製品と新しい Unity OE との接続試験の結果を掲載しています。気になる方は、ぜひサイトを訪問してみてください。

http://jpn.nec.com/emcstorage//solution/unity_nias.html

Chen_D.jpg

 



Dell EMCアジア太平洋/日本担当COO 

ディミトリ チェン(Dmitri Chen)

 

 

 

 

いまや、あらゆる業種において、新しいライバル企業の動きに神経を尖らせています。なぜなら既存の企業は、新しいライバル企業の出現により、これまでに確立してきた製品とサービスへの顧客の見方を大きく変える恐れがあるからです。このような新興企業には、例えば宿泊予約サイトのAirbnbや自動車業界のTesla Motors、配車サービスのUber などがあります。アジア太平洋地域にも、産業用ロボット製造の世界最大手である日本のファナックのような破壊的変革を進めている企業が存在しています。同社は機械学習分野の企業とパートナーシップを結びましたが、これによって同社のロボットはわずか8時間で、90%という高い精度で新しい作業を学習できるようになりました。 これは、製造業だけでなく他の多くの業種にも破壊的な変革をもたらす可能性を示唆しています。

 

このような破壊的変革はすでに大きく広がっていますが、アジア太平洋地域の多くはまだまだ遅れています。先頃IDCがアジア太平洋地域の企業の成熟度レベルを調査した結果、全体の45%がまだデジタル トランスフォーメーション(デジタル変革)の初期段階にあるということが明らかになりました。米国でこの段階にある企業の割合は14%です(※1) 。このレベルの企業は質の低いカスタマー エクスペリエンスしか提供できず、変革にむけた戦略は様々な脅威への対応が原動力になっています。残りの企業の大部分(33%)もそれほど進んでいるわけではなく、その変革も一貫性と統合性に欠けています。そして、アジア太平洋地域で「Digital Disrupter」(デジタルの破壊的変革企業)に分類される企業は、全体のわずか0.6%に過ぎません。

 

※1 IDC MaturityScape Benchmark: Digital Transformation in Asia/Pacific (Excluding Japan) June 2016

 

 

変化するCIO(最高情報責任者)の役割

IT部門がこのような変化に対する会社のニーズに対応していく中で、CIOの役割も変革しつつあります。信頼性、可用性、セキュリティを確保しながら効率を高めていくという従来の評価基準が重要なことは依然として変わりませんが、今はこれだけでは十分ではありません。会社にとってIT戦略のリーダーであるCIOには、業務プロセスと顧客に提供するサービスの両面で、革新を支援することが求められます。これらのニーズは、デジタルの破壊的変革がもたらす変化の急速なペースと複雑さに対応する必要性から生じたものです。

 

このような環境の中、IT部門は単に業務をサポートするだけではなく、業務部門と一体となり、将来の成功に向けてスピード、効率性、俊敏性を提供しなければなりません。このような変革の基盤になるのが、最新鋭のデータセンターとクラウド戦略です ―― これこそが次世代アプリケーションのニーズを満たしながら優れた運用効率と柔軟性を提供するための最善の方法です。また、これによってコスト削減が可能になり、その分の資金と人的・物的資源を革新にむけた作業に集中させることが可能になります。

 

最新鋭のデータセンターはオールフラッシュ、スケールアウト、ソフトウェア デファインド、クラウド対応のアーキテクチャを基盤に構築されていますが、今これらの最新アーキテクチャは急成長しているとともに、その普及も急速に進んでいます。IDCが実施したアジア太平洋地域の調査において、75%の回答者が、すべてのアクティブ データセンターのワークロードについて、今後5年以内にオールフラッシュ データセンターが現実化するだろうと答えています(※2)。同地域では、現在から2022年までにおけるハイパーコンバージド インフラストラクチャの成長率も最も高くなっています。

 

Dell EMCのお客様の多くは、このような最新鋭のアーキテクチャへのシフトを促進する手段の1つとしてコンバージド インフラストラクチャへの投資を行っています。これによってハイブリッド クラウド活用への道が開かれ、さらなるコスト削減や自動化の促進といったメリットを手にできるようになります。このような背景から、アジア太平洋地域の大手企業の3分の1が2016年も「クラウド ファースト」戦略を進めています (※3)。

 

※2 IDC Flash Drives Business Transformation in the Digital Age July 2015

※3 IDC FutureScape: Worldwide Services 2016 Predictions – APEJ Implications January 2016

 

 

トランスフォーメーションを推進  - メルボルン空港の事例

今日、CIOが包括的なITインフラストラクチャとアーキテクチャの設計と運用に集中できる時間と資源は少なくなってきています。それでも、これらのインフラストラクチャとアーキテクチャの能力と柔軟性を常に把握しておかなければ、ビジネス ユーザーと顧客からのニーズの高まりや新たなニーズにペースを合わせて応えていくことはできません。アジア太平洋地域のCIOは、デジタル トランスフォーメーションを活用することでスピード、効率性、俊敏性を提供しようとしています。

 

その好例が、オーストラリアのメルボルン空港です。メルボルン空港は14,000以上の雇用を直接支えており、国際線1便1便のすべてが州財政における$240,000の訪問者支出に貢献しています。すでに同空港はイノベーションを進めており、先日オープンしたTerminal 4では、地域初となる完全なセルフサービス エクスペリエンスを提供しています。

 

メルボルン空港はコンバージド インフラストラクチャによって将来の成長のための基盤を確立しましたが、このインフラストラクチャの構築に要した期間は60日未満でした。新しいシステムは、空港業務に一切影響を与えることなく、引渡しから数時間で本稼動を開始しています。

 

このシステムによって、荷捌きやチェックインなどの主要アプリケーションの高可用性が保証されたとともに、1,700台のCCTVカメラからの映像の安全性と可用性が高まったことでセキュリティが強化され、IT部門の焦点も従来の事後メンテナンスから将来のビジネス イノベーションへとシフトすることができました。ただし、年間利用客数が2033年までに6,400万人へとほぼ倍増することが見込まれている中、同空港のデジタル トランスフォーメーションはこのような利用客急増のペースに合わせていく必要があります。

 

 

まとめ

新たに市場へ参入してくる企業による破壊的変革があらゆる業種で進んでいる中、これらの市場で基盤を確立している既存企業は、デジタル トランスフォーメーションを進めることを余儀なくされています。このような状況を踏まえ、今日のCIOは適切なアプリケーションへの迅速なアクセスを提供しながら高いレベルのパフォーマンスと信頼性を維持しなければなりません。このプロセスの第一歩となるのが、シームレスなコスト削減と効率性の向上を実現する最新鋭のデータセンターの構築です。これによって人的・物的資源を従来の負荷から解放し、より多くの時間をビジネスにむけて集中できるようになります。

 

日々膨大な量のデータが生成され、アナリティクスを通じて新鮮なビジネスの洞察を発見できる機会が広がっている中、企業のITインフラストラクチャには、かつてないほど速いペースでコスト効率良くスケールアップできる能力が求められています。アジア太平洋地域では、上記に挙げた企業以外にも多くの企業が最新鋭のデータセンターによって独自のデジタル トランスフォーメーションを推進しています。

 

あなたの次の一手は?

今日のデジタルの世界では、顧客の趣向や行動に関するデータが不足するということはありません。またテクノロジーの進化によって、これらのデータへあっという間にアクセスできるようになりました。しかし、データは常に急速な勢いで増加しているとともに、社内外を通じて連係のない無数のソースから集められてくるため、多くのビジネス リーダーが対応に苦労しているのが実情です。しかし驚くべきことにアジア太平地域(日本を除く)の企業の53%がビッグデータとアナリティクスはビジネスにとって重要であると考え、ビッグデータ市場が盛況であるにも関わらず、依然としてデータはIT部門の資産であり、その責任はIT部門にあると考えられている場合がほとんどなのです。

analytics_s_322710104_720x450_72_RGB.jpg

データがもたらす真のメリットは、構造化/非構造化の両方のデータを収集、管理、活用し、ビジネスの意思決定に活用できる洞察へと変えるところにあります。もう1つの大きな課題は、これらの洞察をいかに短時間で引き出して、経営と成長に不可欠なビジネス戦略に活用できるかということです。リアルタイムの予測分析によって、時間とコストを節約しながらカスタマー エクスペリエンス(顧客体験)の質を高めることが可能になります。

 

実際に、接続状況やインシデント管理、サービス アクティビティ、コードレベル、健康状態/リスク スコアリングといった機能を通じて、アクションにつながるパーソナライズした洞察を提供して質の高いIT環境のモニタリングを実現する、「MyService360TM」のようなソリューションが知られています。これらのソリューションはプロアクティブ(先回り的)なアクションをサポートするだけではなく、ギャップを埋めるとともに、部門を横断してカスタマイズしたニアリアルタイムのデータ分析を実現することで、高度な意思決定をサポートします。これによってカスタマー エクスペリエンス(顧客体験)をモダナイズ(最新鋭化)しながら効率を高めることが可能になります。

 

データレイクを基盤にするこれらのパーソナライズしたデータの視覚化によって、導入企業はグローバル規模の洞察を迅速に獲得して、プロアクティブな行動を起こすことができます。これにより、自社のIT環境全体の健康状態を高め、ITへの投資から最大限の価値を引き出しながら運用コストを削減することが可能になります。

 

IDC社が実施したアジア太平洋地域(日本を除く)むけの2016年「ビッグデータ/アナリティクスMaturityScape Benchmark調査」では、同地域の企業はビッグデータとアナリティクスのテクノロジーを活用する能力において急速に成熟度を増しており、全体の34%がより成熟度が高いステージ(全社方針(Repeatable)ステージ/定量管理(Managed)ステージ)へと進んでいます。本調査レポートでは、今年「クラウド ファースト」の戦略を進めていくと回答したアジア太平洋地域の企業の割合は33%で、変化に対する企業の準備態勢を反映した形になっています。これを踏まえ、引き続き上昇傾向にある成長と変化を後押しするテクノロジーへのシフトと幅広い導入が進むと予想されます。

 

カスタマー エクスペリエンス(顧客体験)で競争力を高め、大きな成功を収めるために企業はどのようなタイプのエコシステムを構築すべきなのか、次のように考えます。

 

1.    時間とコストを節約するリアルタイム/予測的データレイクを構築

今日の情報世代のユーザーは、企業に多くのことを求めるようになっており、リアルタイムのエンゲージメントとパーソナライズしたエクスペリエンスを提供することは、企業にとって新たな標準となっています。データの成長にペースを合わせていきながら、これらのデータからビジネス インテリジェンスを引き出すため、企業は自社のITインフラとビッグデータ戦略を見直す必要があります。

 

また、顧客を中心にした情報センターのエコシステムを構築するとともに、リアルタイム性と予測性の両方を兼ね備えたセキュアなビジネス データレイクに投資しなければなりません。顧客とコミュニケーションをとる部門は顧客との過去のやり取りの情報と現在の問い合わせに関するリアルタイムの情報を利用できるようになるので、顧客とより的確な会話を進められるようになります。また、企業にとってはサービス対応と全体的なカスタマー エクスペリエンス(顧客体験)の飛躍的な品質向上が実現され、顧客満足と顧客維持率の向上につながります。

 

リアルタイムの予測的洞察を活用することで、顧客のニーズや懸念、問題をあらかじめ予測して前もって準備を整えられるようになり、時間とコストを節約することが可能になります。

 

2.    社内の全部門を通じ、統一された「真の情報源」を確立

今日、顧客は企業とのすべてのコミュニケーション チャネル(過去のやり取りも含む)を通じて自分たちのすべてのデータが統一され、問題解決などのプロセスが迅速に進められることを期待しています。また、リードの生成や初期の検討、エンゲージメント、評価から実際の購入、納品、使用、最終的には購入後のフィードバックまで、どのコミュニケーション チャネルを選んだのかに関係なく、カスタマー エクスペリエンス(顧客体験)の個々のステップで行っている会話をリアルタイムに更新していくことを期待しています。

 

これらのニーズに応えるためには、部門横断型のチームのコラボレーションによってデータ エコシステムを提供し、個々の顧客について統一された「真の情報源」を構築するとともに一貫したサービス提供を実現するための包括的なルールとガバナンスを確立する必要があります。これによって、社内の部門および外部のチームはデータの整合性と一貫性を確保しながら、パーソナライズした活動を進めることが可能になります。さらに、ビジネス リーダーおよび最高責任者レベルの役員は、一貫したリアルタイムのデータ主導型のインテリジェンスによって質の高い豊富な情報に基づく意思決定をできるようになり、競争環境での生き残りに不可欠な俊敏性を実現できます。

 

3.    社内各部門のビッグデータへの信頼とビッグデータに基づくアクションを促進

カスタマー エクスペリエンス(顧客体験)の競争において大きな成功を収める上で、プロセス、ガバナンス、視覚化ツールだけでは十分ではありません。成功のためには、データの洞察とビジネスの成果とを結びつけることができる分析のスキルを確立しなければなりません。これは、データ サイエンティストとビジネス アナリストがコラボレーションによってデータから引き出した洞察を共有して顧客の問題を解決することで実現でき、これによってビジネスが先へと進められます。企業はカスタマー サービス担当スタッフの効率を高めながら、顧客に対するよりスマートな洞察を獲得するとともに、やり取りの履歴を追跡管理する統一ビューを確立し、複数のチーム間で顧客をたらい回しにするような状況をなくすことで、カスタマー エクスペリエンス(顧客体験)の質を高めることが可能になります。

 

今日の複雑なビジネス環境では、企業は十分な配慮をもって、IT部門が直面しているプレッシャーを管理しなければなりません。組織全体とその健康状態への可視性を確立することで、より多くの予防的ツールや規範的ツールを通じて現状を分析することが可能になります。また、これによってより質の高い情報に基づくリアルタイムの意思決定が可能になります ―― これは、今日のITマネージャーにとって非常に価値あるイネーブラです。最適なテクノロジー パートナー選びが、今日のカスタマー エクスペリエンス(顧客体験)環境で大きな成功を収めることができるかどうかを分ける鍵となります。

 

 

付録

地域別統計

アジア太平洋全体

  • IDC社の最新調査レポート「Asia/Pacific (Excluding Japan) Big Data and Business Analytics Services Market Opportunities, 2016」によると、アジア太平洋地域(日本を除く)におけるビッグデータおよびアナリティクス関連サービス マーケティングは、アナリティクス関連のシステム統合とBPOサービスへのニーズの高まりを背景にCAGR(年平均成長率)16.3%で推移し、38億米ドルから2019年には70億米ドルに成長する見込みです。また、同地域の企業の53%がビッグデータとアナリティクスが重要であると捉え、すでに導入しているか近い将来導入する予定であると回答しています。 https://www.idc.com/getdoc.jsp?containerId=prAP41208316
  • IDC社が実施したアジア太平洋地域(日本を除く)、むけの2016年「ビッグデータ/アナリティクスMaturityScape Benchmark調査」では、同地域の企業はビッグデータとアナリティクス(BDA)のテクノロジーを活用する能力において急速に成熟度を増しており、全体の34%がより成熟度が高いステージ(全社方針(Repeatable)ステージ/定量管理(Managed)ステージ)へと進んでいることが明らかになっています。これは、2014年度の調査におけるわずか7%から5倍近い伸びとなっています。
  • ただし、同地域の65%以上の企業はまだ最初の2つのステージ(「個人依存(Ad Hoc)」または「限定導入(Opportunistic)」)にあります(下記iChart参照)。ほとんどの企業はビッグデータとアナリティクスの導入にむけて足を踏み出したばかりで、ビジネスの課題を解消するためにこれらのテクノロジーを学び、実験しているところです。
  • 成熟度の進捗スピードは国によって異なり、例えば韓国はBDAの成熟度において最も成長著しい国の1つで、シンガポールを上回ります。一方、過去1年で最も進捗度が低かったのは香港でした。今年度のアジア太平洋地域(日本を除く)におけるBDA成熟度の上位国は豪州、ニュージーランド、韓国、シンガポールで、これに香港、中国、台湾、インドが続きます。 ASEAN新興国は、依然として成熟度曲線でスターターの位置にあります。https://www.idc.com/getdoc.jsp?containerId=prAP41531316

 

日本

執筆者:

ピーター カッツ (Peter Cutts)

シニア バイス プレジデント

Dell EMC ハイブリッドクラウド プラットフォーム

 

今日の企業と顧客がコミュニケーションを図っている環境、それは私たちの誰もが経験したことのない環境です。オンラインでやり取りしているのか、またはモバイル アプリを使っているのかに関係なく、顧客はサービスをいつでも利用できるとともに、環境の変化やインテリジェントなコミュニケーションに基づいてリアルタイムに更新されていくことを期待しています。これを満たすことができなければ顧客は離れ、このような期待に応えようと待ち構えている競合他社に流れてしまうリスクを負うことになります。企業が顧客とのコミュニケーションを図り、エンゲージメントを実現し、実際の購買につなげ、その関係を維持していく新たな手段となっているのが、アプリケーションです。

 

それでは、どうすれば企業は顧客の真のニーズへの理解を深めることができるのでしょうか。あらゆるタイプの企業が、データ アナリティクスを利用することで需要への理解を深め、顧客の期待を予測し、常に変化する顧客ニーズに合わせて製品やサービスをカスタマイズしています。大量のデータを利用し、外部データソースを活用することで、企業は隠れているパターンや洞察を見つけ出し、新しいビジネス モデルだけでなく破壊的なビジネス モデルさえも明らかにすることが可能になります。アプリケーションが企業にとっての新たなコミュニケーション手段であるとすれば、データ アナリティクスはインテリジェントなデータ主導型のアプリケーションを通じて顧客との強固なエンゲージメントを実現する新たな機会を明らかにする洞察としての役割を果たします。

da-1.jpg

データ アナリティクスとクラウド ネイティブ アプリケーション開発とを組み合わせることで、カスタマー エクスペリエンスとビジネスを新たなレベルへと高める道が開かれます。マイクロ サービスの継続的な提供というコンセプトを基盤に構築されているクラウド ネイティブ アプリケーションによって、アップデートを高い頻度でスピーディに実行し、カスタマー エクスペリエンスの継続的な品質向上を実現できます。これは、すべての業種を通じて優れた業績を実現している企業が質の高いカスタマー エクスペリエンスの提供に活用している「勝利の組み合わせ」で、先頃リリースした「Digital Transformation Index(デジタル トランスフォーメーション インデックス)」で明らかになっています。

 

例えばモバイル バンキングや保険、航空券、鉄道、ナビゲーション、音楽、さらにはワインといったものまでを含めて、アプリケーションは事実上あらゆる対象について存在しています。モバイル バンキング アプリであれば、ユーザーは小切手の写真を撮って自分の口座に入金できるので銀行に出向く必要がなくなり、今日の多忙な消費者に完璧な環境を提供します。また保険アプリであれば、被保険者は見積をもらうことや請求の確認、報告などを数分単位で行うことができ、プロセス全体がかつてないほど迅速かつ簡単になります。 ワイン ラベルの写真を撮ってそのワインの評価を行うアプリでは、すべてのユーザーから寄せられた評価に基づいてワインをスコア付けして、同じような特性の他のワインの提案を生成します。 他にも、ドライブ時に大変役立つインタラクティブなトラフィック/ナビゲーション アプリでは、車のルートをトラッキングして事故や道路上の障害物、速度違反取締装置などの情報をほぼリアルタイムでドライバーに提供し、ますます混雑度が増している一般道路や高速道路で質の高いナビゲーションを実現します。

 

これらのアプリおよび文字通り数千を数える同種のアプリは、データ アナリティクスの未来を動かしているワークロードの進化の最前線にあります。 長年の歴史ある企業なのか、または比較的新しい企業なのかに関係なく、クラウド ネイティブ アプリケーションおよびアナリティクスが提供する洞察によって、かつてない環境で顧客とつながりを持ち、自社ブランドへの信頼を確立し、継続的な成長を実現することが可能になります。

 

da-2.jpg

これらのアプリを顧客が使えば使うほど、その利用状況や購買パターンについてより多くのデータが生成され、これらのデータをアナリティクス プロセスに戻して適用することで、インテリジェント アプリケーションの質を高めるとともにより優れた洞察を提供し、さらに高い価値を引き出すことができます。適切なデータを収集し、これらのデータをコンテキストにそった分析モデルに提供し、ここから得られた洞察に基づいてアクションを起こすという好循環は、競争優位性を高めるとともに自社をデジタル主導型の企業へ変革するための理想的なプロセスとなります。このサイクルを速く回せば回すほど、新規と既存の両方の顧客をかつてないほど惹きつけ、新しいビジネス チャンスを明確にして収益化する能力を高めることができます。

da-3.jpg

先日Dell EMCが米国で発表した「Analytic Insights Module」は、このようなアナリティクスとアプリの組み合わせに対するデルとEMCジャパンの強い思いの表れです。「Analytic Insights Module」は、セルフサービス型のデータ アナリティクスとクラウド ネイティブ アプリケーション開発を1つのクラウド プラットフォームに統合して提供できるように構築されています。「Analytic Insights Module」の詳細およびどのように企業をサポートするのかについては、こちらをご覧ください

 

2016年10月19日執筆

執筆者:

デビッド ゴールデン (David Goulden)

プレジデント

Dell EMC インフラストラクチャ ソリューション グループ

 

去る10月、初開催となった『Dell EMC World』が閉幕しました。会場を包み込む熱狂と興奮は、まさに圧倒的でした。デルとEMCが1つの組織に統合して業務を開始してからわずか6週間という驚くほど短期間で、デル テクノロジーズ ファミリーからの業界をリードする幅広いテクノロジーを統合した一連の新しい製品とソリューションを発表し、私たちは強力なスタートを切りました。

 

これらの発表と基調講演、ブレイクアウト セッション、また導入企業やパートナーおよびインフルエンサーとのコミュニケーションなど、すべての中心となっているのがデジタルとITのトランスフォーメーション(変革)です。テクノロジーによって私たちのライフ スタイルやビジネス スタイルが急速に変化している中、あらゆる業種がデジタルの破壊的な変革に直面していることは共通認識になっています。企業がチャンスを手にし、新しいデジタルの時代に参加して成功に向けて努力をするのに伴い、このようなデジタルがもたらす大きな機会とともにやってくるのが、「デジタルの恐怖」です。 すべての業種を通じて、あらゆるタイプ、あらゆる規模の企業がデジタル エンタープライズとなるためのプレッシャーを感じています。

 

これは先頃、デル テクノロジーズが実施した調査でも明らかになっており、世界各国の大規模企業および中堅企業のビジネス リーダーの半数近く(48%)が、自社がビジネスを展開している業種が3年後にどのようになっているのか予想できないと回答しています。これらのビジネス リーダーは、クラウド モデルへの移行、ソフトウェア開発力の拡充、またスピーディなイノベーション(革新)およびデータから深い知見を引き出すことが、デジタル トランスフォーメーション(変革)を実現する上で不可欠な要素であるとしています。また、企業の大多数はデータセンターを進化させることに苦労しており、データセンターを進化させていく上で既存のアプリケーションの数が多すぎることが障害になっていると69%が回答しています。さらに、どの企業も無駄を軽減して支出を削減しながらシステムを最新状態にするという課題にも直面しています。

どのようにしてIT業界はこのような状況になったのでしょうか。また、次に何が起こるのでしょうか

 

dw-1.jpg

 

ITではあらゆるモノが飛躍的に加速しています。 ムーアの法則は今も健在で、技術能力は5年ごとに10倍に進化しています。すなわち、15年前はあらゆるモノのスピードが現在の1,000分の1でした。 このクライアント/サーバの時代、IT部門はバックオフィス、ミドルオフィス、エンドユーザーの自動化に焦点を当てていました。 またプロセス、効率、信頼性を重視しながらSoR(systems-of-record: 従来型の基幹業務システム)の導入が進められました。IT部門の時間の大部分はソフトウェアの開発ではなく従来型のアプリケーション パッケージの導入に費やされていました。

 

それでは、今から15年後に目を向けるとどうでしょうか。技術能力は現在の1,000倍に高まっていると考えられ、 今とは大きく異なるITの時代が想起されます。IoE(Internet-of-Everything: あらゆるモノのインターネット)によって、私たちはIT時代に対応した企業および経済環境へと急速に進んでいます。

 

もう1つ、現在起こっている大きな変化があります。それは、ITがビジネスをサポートする存在からビジネスそのものに移行するという変化です。

 

ビジネスのあらゆる側面において、ITは切っても切れない関係にあります。今後、ITは従来のSoRを越えて、ITイノベーションを活用して新しい製品やソリューション、サービスを構築することに焦点を当てたSoE(Systems of Engagement: エンゲージメントのシステム)やSoI(Systems of Insight: 知見のシステム)へとシフトするでしょう。このようなシフトによって、競合との差別化や勝利を収めることにつながるソフトウェア構築への新たな欲求と要件が発生します。 ソフトウェアによって差別化を実現する能力は、これからもあらゆる業種で勝者と敗者とを分ける要因となるでしょう。

 

私と顧客の会話の大部分は、ITがトランスフォーメーション(変革)にどのように影響を与えるのか、またITによってトランスフォーメーションがどのように可能になるのかといった部分に重点が置かれています。

 

アナリストによる概算では、クライアント/サーバ時代における支出のピークは2兆7,000億ドルでした。その対象となっていたのは今日の企業を動かしている従来型のクライアント/サーバ アプリケーションで、これらのアプリケーションがすぐになくなるということはないでしょう。

 

IT予算が飛躍的に増えるということはないので、ITは従来のアプリケーションとインフラストラクチャを最適化して、SAPやOracleといった従来型のエンタープライズ アプリケーションをより効率的に動かすことに焦点を当てる必要があります。従来のITに伴うコストがなくなれば、新しいデジタル イニシアチブへの投資もより容易になるのではないでしょうか。

 

このような新しいデジタル イニシアチブの基盤になるのがクラウド ネイティブ アプリケーションで、 その特性はあらゆる部分で従来のアプリケーションとは大きく異なっています。クラウド ネイティブ アプリケーションは本来的に分散されているとともにステートレス性とスケールアウト性とを兼ね備え、アプリケーションには回復性が組み込まれ、DevOps開発プロセスを活用します。さらに、アプリケーションあたりのユーザー数は1,000人を超え、各ユーザーが生成するデータ量も1,000倍以上になるので、従来の環境に比較してデータセットは100万倍になり得ます。

 

ITにとって、これは現在のビジネスを動かしている従来型のアプリケーションをサポートしながら、新しいクラウド ネイティブ アプリケーションの要件へ応えられるようにデジタル トランスフォーメーションを促進しなければならないという、二面的な課題となります。IT部門は、明確なアーキテクチャおよび運用の両方の枠組みにおけるエキスパートかつソートリーダーであることが求められます。

 

ITを変革するとともにこのような二面的な課題を解消する最も明確な手段、それはハイブリッド クラウド戦略です。この戦略では、複数のハイブリッド クラウドを活用します。

 

  • これを実現するための最初のステップは、データセンターのモダナイズ(最新鋭化)です。スケールアウトやフラッシュ、ソフトウェア デファインド、クラウド対応といったテクノロジー コンセプトが、このようなモダン データセンターの基盤になります。
  • モダン データセンターとその基盤を確立したら、次のステップはオートメーション(自動化)です。摩擦のないセルフサービス型の環境を実現することで、企業は信頼性を維持しながら運用環境をスケールアップさせることが可能になります。
  • 最後のステップは、ITaaS(IT-as-a-Service: サービスとしてのIT)モデルへのトランスフォーメーション(変革)です。

 

Dell EMCは、お客様が多岐にわたる多くの優先項目をうまく調整しながらこのような変革に必要なインフラストラクチャを確立するためのイノベーションの実現にコミットしています。

トランスフォーメーションをはじめるとき、それは今です。

 

2016年10月25日執筆

デルテクノロジーズが実施した調査によると、アジアパシフィック及び日本(APJ)エリアにおける83%ものビジネス団体が、デジタル・スタートアップ企業が現在もしくは将来脅威になるだろうと考えていることがわかりました。調査を受けた半分以上(52%)のビジネス団体は、デジタルを有効活用するスタートアップとの競争の結果、向こう3年から5年で自分達が時代遅れになるかもしれないという恐怖心を持っていたのです。この数字は全世界平均である45%よりもはるかに高いものです。

 

Speed_motion_in_blue_highway_tunnel_98174861_720x470_72_RGB.jpg事実スタートアップ企業は思いもよらなかった方法で既存のビジネスモデルを壊し、現状維持ではない変化を起こしています。至る所に広がったモバイル-クラウド テクノロジー、俊敏な発明者達や新たに出現してきたスタートアップ企業達のおかげで、我々は能力のある人や資本、マーケットプレイスなど世界中の30億もの人々のつながりを含む、世界規模の「共有」オンライン資源に迅速かつ簡単にアクセスすることが出来るのです。それら新しい企業は失うものが何もないために積極的に新たなビジネスモデルを受け入れ、ゲームのルール変更を起こしています。大規模なビジネス団体は現在の確立された立場による恩恵が段々と減少していることに気が付かなければなりません。そのプレッシャーに打ち勝つためにはスタートアップのようにイノベーションを起こし、大企業のように提供をするのです。

 

 

ここに大企業向けのいくつかのレッスンがあります。

  1. 迅速(アジャイル)な手法でのイノベーション: APJエリアの会社は変化のペースによって悪い影響を受けているように感じています。デルテクノロジーズの調査によると、10人中6人(61%)のビジネスリーダーは、彼等の業界において過去3年にわたりデジタルテクノロジーとInternet of Everythingの結果として大規模な混乱を経験しており、当該エリアの58%のビジネス団体は3年後の彼等の業界がどのようになっているのかについて分からないと言っています。

     

    デジタル革命によって産業を越えるための参入障壁は大幅に低くなりました。デジタル時代においてはイノベーションの失敗がAPJでのビジネス設立に必要な競争力にインパクトを与えることになります。スタートアップ企業は最初からクラウドベース及びソフトウェアベースのテクノロジーを贅沢に活用してきます。

     

  2. 唯一無二のパーソナライズされた経験を提供するためにお客様を知る:10社中約6社はお客様が最も求めている需要、よりよいセキュリティや24時間いつでもサービスや情報に迅速にアクセス可能であることなどに応えることが出来ずにいます。約2/3(65%)の会社はリアルタイムのインテリジェンスに従い行動をしていないことを明らかにしています。

     

    今日では、お客様は直感で理解できるパーソナライズされた経験を期待しています。データは流通させるものでありデジタルビジネスのペースについていくために必要不可欠なものです。リアルタイム分析と予測分析はお客様が期待するものを提供するために必要であり、彼等の購入過程や将来の行動を予測するための洞察を得るためにも必要なものなのです。

     

  3. モバイルを積極的に受け入れ、労働力を多種多様にする:今日の人々はスーパーコンピュータをポケットに入れて持ち歩いています。欲しいどのような実際の情報にも指先の操作だけでアクセスすることができ、複数のソーシャル・チャネルを通じてお互いに交流することができます。この常につながっているということが、デジタルに精通した労働力を上手く利用して今まで見たこともないようなビジネス機会をつくりだし、以前は不可能だと思われていた方法でお客様へ応じることを可能にするのです。この機会に投資を行う能力があれば、競争から抜け出し先見の明のある組織として他社とは一線を引くことが可能となります。

451995833_720x504_72_RGB.jpg

 

現在の技術の変化スピードをみると、多くの大企業は挑戦することに少し気おくれしているのかもしれません。しかしこのデジタル・トランスフォーメーションは達成可能であり、前に進むために必要なものなのです。それは段階的に、もしくは一気に実現できます。次の大きな変化の前に総体的なアプローチが必要になっています。これは自らの将来をつくり上げ、将来の破壊的変化への心配を減らすために大企業に与えられたチャンスなのです。

原文:VxRail 4.0 = 250x more. 25% smaller. 200x more flash. 40% faster.

 

October 19, 2016

 

XtremIO とVxRail のことになると Dell EMCがどれだけ早く動いているかわかる。

AFA(All Flash Array)とHCI(Hyper–converged Infrastructure)において 僕らは少しばかり遅れをとったけど

大物は遅れて目を覚ますもんさ。

XtremIOはいまや30億ドル以上の売り上げだし、all-flash VMAX3や UnityでもAFAが広がりつつある。

Dell EMCはいまやAll Flashの先駆者としての地位を築いたといってもいいだろう。

業界でもAFAスタートアップはなかなか大変な仕事だということも業界ではよく知られた話だし。

 

じゃあHyper-converged Infrastructure (HCI) マーケットはどうか。

これも同じ章の最初のあたりをうろうろしてる。

 

HCI マーケットはこの5-6年静かに伸びてきてはいる。特にこの2年は洗練されて大きくなってきたSDSと

共にエンタープライズマーケットと同等のクリティカル性を持ってきた。NANDの価格低下と10GbEの接続向上のおかげで

それはもっと加速している。

 

ハイパーコンバージのマニフェストは以下の3タイプだろう。

1.Softwareだけ (他のハードウェアは完璧なDIYタイプ)

2.Software + hardware バンドル (リスクの低い、Pre Made系、たとえばScaleIO nodes, VSAN-ready nodesとか)

3.ターンキーHCI フルマネージメント/ライフサイクルマネージメント, (例えば VxRail, VxRackや XC.など)

 

僕らは2016年2月からHCI appliance market にVxRail で殴り込みをかけた(当時のブログはそのころのことをよく表していて面白い)

そして5月にはHCI Rack scale systemであるVxRackをリリースした。

どんな感じかって?・・・・・・・僕らのHCI ビジネスは笑いが止まらないってなもんさ!

 

今日のところは VxRailに焦点を置いてはなすよ、そのほうが数多くのお客様にもわかりやすいからね。(数こそ劣るとしてもVxRackのお客様だって今や500Nodeをデプロイしている本当の意味での“Rack Scale”.を邁進している。)僕らが2月にVxRail3.0をリリースして、第二弾としてかなりのアップデートを盛り込んだVersion3.5(コードネームは“Ghent”)をリリースしたけど、今度はこれまでで最大のアップデートであるVxRail version 4.0をリリースしたんだ。(コードネームは“Nicias”)

短い期間での連続リリースだけどマーケットの反応は『AMAZING~最高!』以外何物でもない。

Q2 最終月の8月のNode出荷数は1700を超えた。

そして4.0が今日から出荷!なんとその数 3800+

どうしてノード数で表すのかって?アプライアンス数や顧客数じゃないのはなんでって?1アプライアンスにつき

4ノードなのに?そうじゃないんだよね。もう、4ノード以下からだって構築が可能なのさ。

だから数え方もノード数でやってるってわけさ。で、現状はこんな感じ。

    60,000 CPU コア

    RAMは700+ TB

    25ペタバイト以上のストレージ!しかも注目のall-flashだって可能

   ほとんどのケースが 投資総額100万以上の導入

   導入実績は世界90ヶ国以上

 

概算だけでも VxRail business は四半期ごとに123%以上の成長率・・・すごすぎるだろ!

 

僕らはvSphere環境でHCIをシンプル、つまりアプライアンス追加などの時間を短縮して効率的に

運用をしたいお客様達にぴったりな物、乃ちVxRail や VxRack SDDCを提供して彼らのその要求を完璧にかなえてあげたんだ。

 

VxRail (そしてsdn:software defined networks と合わせて使えるrack-scale型のVxRack SDDCも) は1つのチームが

VMwareと共に開発を担当している。

いろいろな点で隠れ蓑が無ければないほど、その開発はシンプルに、そして焦点の合ったものになる。

VxRail 開発部は製品に対してのお客様からの直接フィードバックを日夜目の当たりにしているから、よくある開発当初に描かれた理想的構想プラン(絵に描いた餅的な)よりも、実地に基づく開発構想を持つことができる。そっちの方がずっとずっと価値がある、ユーザーに寄り添ってるからね。

 

彼らのミッションはごくシンプル。

業界一のvSphere-oriented HCIの開発チームとして、Dell EMCが持つ 最高のhardware/softwareレベルのシステム開発技術、保守モデル、そしてData保護の技術を武器にそのすべてを網羅して魅力的な作品を創る。

だからこそ、彼らの仕事(作品)はVMware顧客にとってシンプルかつ最高な選択肢になり得る。

Dell EMCが持つ高い技術力の行間を埋めるのが、オンプレのSDDC(software defined Data Center) クラウドの先駆者でありその確実な地位を築いているVMwareの存在といえるだろう。

 

VMware が好きじゃない人にはこのVxRail や VxRack SDDCといったソリューションはおススメしない。

そういう人はDell EMC XC HCIAがおススメ。例えばScaleIOとか構築済みのVxRack HCI Rack-Scale systemsとかね。

ぶっちゃけ、ここで僕がMicrosoftのことを語らないのと同様に求めているものが違う製品群に関しては口をつぐむしかない。

なんてったって僕はVM側の人間だからね。

VM側の人間としてもっというと・・・・・

僕らはOpenStack やcontainer ecosystemとの融合をもっともっと図っていこうとしている。既にその取り組みは始まっている!

Dell Technologiesは統合されてお客様の選択の余地をもっともっと広げているといえるんだ!

 

VxRail release 4.0で僕らはもっとパワーアップした!

アポロのようにね!よく見てね!(よくできてるだろ!)

 

VG2016Q4.jpg

 

 

僕らの4発目のVxRail ブースター release 4.0の発射!

それぞれのコンポーネントの改良とパワーアップでもっともっと高みを目指す。3,4発目でアポロが月面着陸して帰って来たようにね!

 

Dell EMCはどこよりもHCレベニューをのばしている。VxRail だけでみてもシェア一位に近いし、VSAN-ready nodeも含むと

業界ではどこよりもハイパーコンバージドレベニューに食い込んでいる。しかもこれはVxRack SDDC boosterやMicrosoftとの協賛以前の話。

VSAN software-onlyであればもっとすごいだろうな。。

 

ところで、マーケットシェアに関する社内観測ではVSAN やソフトウェアのみの ScaleIOは含んでいない。

あれがすぐれた製品ではない、ということではなく、これらはカテゴリーとしてはSDS(Software Defined Solution)

であり、hyper-converged infrastructureじゃないからだ。

 

というわけで僕らのHCIにおける次の殴り込みに関してのおぜん立てはそろったってわけさ。

で,何が殴り込みかというと・・・・

次のVxRailってのはもっと効果的で拡張性と自由度を持ち、vSphere環境を持っているお客様のあらゆるHCI要件に耐えうるだけの

機能性を持っているといえる。

 

VG1.jpg

まあ、上記にあげた変更が具体的なものだけれど、これ以外に派手な変更を知りたいって?

VxRail 4.0はそれだけでHCIAマーケットの最先端そして一番人気をかっさらうと思う。だってこれ。。。

 

VxRail 4.0にはDell パワーである4000W Xenonを搭載しているし、それだけでもこのハイパーコンバージドソリューションの

中心的存在になるんだから!

VG2.jpg

業界一番人気を誇るDell PowerEdgeの搭載でVxRailの運用事例は大幅に広がった。 (#1 server in the marketplace as a whole!) –

文字通り250倍の構成、運用事例増加!ってことだ。

 

これが製品ラインアップ

オリジナル“G-series” (2U4N) 、そして新しく加わった E-series (entry 1U1N), VDI視点のV-series ( 2U1N), パフォーマンス重視のP-series ( 2U1N), そしてストレージ重視のS-Series ( 2U1N)。

VG2.png

もちろんすべてのモデルはconfigure to orderつまり, お客様のシステム要件に合わせた CPU (Intel Broadwell),

RAM, Storage, GPUs を選択できる。– でもシンプルなアプライアンス発注、サポート、接続可能性はそのまま維持!

VG3.png

 

 

ここからはちょっと戦略的なポイントについて。

僕自身もこの点に関してはVxRailビジネスを始めて3ヵ月くらいたつまでつかむことができなかったんだが。

HCI (アプライアンス型とラックスケール型含め)は機能性、特色性ってのはソフトウェア如何にかかっている。

そしシステムレベルでのて完成度、経済性、ぶっちゃけ競争力というのは業界標準のハードウェアということになる。

個人的にはHCIにハードウェアを求めるのは的外れだと思っている。もちろんハードウェアは大切だが

ソフトウェアへの探求こそがHCI戦略としては正解だと思うからね。

しかし一方で真実はこれだ。。。。このHCIの長い闘いの中で勝ち残るにはソフトウェア以上のもの、

素晴らしいx86 serverサプライチェーンが必要なのだ。

HCI初期のハルマゲドンのなかで生き残るのはわずか、他は力尽き倒れていく。

 

 

configure to orderは簡単じゃない

地球の裏側にある工場の時間短縮や在庫管理をやるのは簡単じゃない。

トゥンブク遺跡が崩れるようなアプライアンスを持つお客様のサポートをすることは簡単じゃない

規模が大きくなればなるほどそれは大変になる。けれどもそれらをうまくできるのはDell EMCだけ。

だってそれだけのノウハウと技術力があるからね。

VG4.png

 

特に注目は新しいE-series ( Dell EMC PowerEdge R630搭載) でこれは最低価格 $60K (約700万)から$45K までと幅広い。

過去の経験から学んだ僕らはVxRail 4.0では3 nodeからのスタートをサポートすることで低価格を実現したんだ。

次のVSAN 6.5に絡めて行われるアップデートではスイッチのいらない2 node構成も発売する予定さ。

このE-series はまだHCIに初心者のお客様への新しい運用例を提供するものとして、そして僕ら提供側でも新しい小規模運営例から

未来への拡張例へとつなげる布石として重要な意味を持っている。

 

VG5.png

 

 

多くのお客様はパフォーマンス重視のP-Series (Performace) やPowerEdge R730 platformを採用したV-Series (VDI) を心待ちにしていた。

P-Seriesはなんと 44 CPU core、1.5TB のRAMを持つnodeを搭載だってできる。

V-Series はGPU supportでEnd-User-Computing ユーズケースのギャップを埋めるものだ。

具体的にはシングル、デュアルGPU のサポート。

 

VG6.png

 

そしてCPUやMemoryよりも容量重視な環境 ( Cloudera とか Hortonworks でvSphere Big Data Extension環境を想像してみて)

のためにはS-Series アプライアンス。これはPowerEdge R730xd platform採用のDENSE storage のためのものだ。

これらの VxRail applianceモデルはいってみれば絶妙の感覚で行われる『バランス』と『フレキシビリティー』

この結果は私にとってもとても誇らしく喜ばしい事だ。

 

VG7.png

 

注)上記追記

バランス

クラスタ内のすべてのNodeは同じVxRailソフトウェアであること

HybridとAll-Flashの混合はNG

最初の4Nodeは同一でなければいけない

G-SeriesのNodeは同一でなければならない

フレキシビリティ

アプライアンスモデルではNodeのマッチは必要なし

Drive数、CPU、Memory、モデルタイプは好きなものを

1クラスタあたり3-36Node、しかし1GbEだけなら8まで

G-Seriesの一部では拡張も可能

32Node以上の拡大型クラスタならRPQ申請が必要

 

 

 

加えてVxRail Management ソフトウェアレイヤでもアップデートがあった。

vCenterとVxRail cluster management(デイリーではなく全体的なvCenterとの融合)はどんどん進化している。

vCenter設定の総合性と簡便さは大好評!300リモートサイトと300vCenter インスタンスなんて誰もほしくないからね。

 

そして僕らの執拗なる self-service への探求、はこの VxRail 4.0にも生かされている。

お客様は簡単に3.5 tから4.0 へのアップデートができるんだ。

VG8.png

上記のステップでの注意点はVxRAIL3.5アップグレードが必要でvSphere standard editionをお持ちのお客様はサポーエンジニアトの力が必要だということ。お客様自身での実施はできない。僕らはまだまだお客様の手を離さないさ、アップグレードにしてもネットワーク構築に関してもまだまだVxRailの魅力を引き出すためには僕らベンダーがお客様に伝えたい技はいっぱいあるんだから。でも将来的に全てお客様の手で、如何様にも、というスタンスは変わらない。

 

 

ソフトウェアでもハードウェアでもない部分でも大切なアップデートがある。VxRailはただの  “コンバインドポートフォリオの採用”

ではなくDell EMCによって合併された‘‘コンバインド運営構築モデル‘‘の最初の製品なんだ。

VxRail softwareは 沢山のサプライチェーンを複合させているからこそ Configure to order を可能にしている。

そしてだからこそ個別パーツ交換(アプライアンス丸ごととかNode丸ごととかではなく)も可能になる。

こういう運用の便利さもお客様にはとても大切だろ?

 

大規模レベルでのマージを経験したことのある人ならITシステムの変更、サプライチェーンの変更、サポート体制の変更など

がどれだけ大変なものかわかるだろう。新しいこのPowerEdge nodeの導入は僕らにとってもかなりな衝撃だったけど僕らの

底力でこれだけ早く統合に漕ぎ付くことができた。

 

ところでこのプロジェクト(“Project Augusta”) にかかわった彼らへは感謝しきれないくらいだ。簡単じゃなかった、VxRailはただのパイプクリーナー

(つまり斥候隊ってこと)ではなく、お客様にとって大切なはじめの一歩、だったのだから。

 

お客様、そしてパートナーの皆様、VxRail4.0での僕らのロードマップをお知らせする。

G-Series アプライアンスは世界中ですぐに購入可能になる。でもE-Series, P-series, V-Series, S-Seriesに関しては

徐々に世界中でのリリースを予定しているからQ4には世界に広がる予定だ。見積もり開始は11月12日から。

VxRailチームに休む暇なんてないさ!

 

VG9.png

 

そしてもう一つ、パートナーの皆様、このVxRailをお客様へ提供したいならばEMC partnerでなきゃならない。2017年からはDell and EMC

partner program が始まるはずだけど、それまではEMC partnerということになる。

 

Dell EMCとVMwareの VxRail team のみんな、どうもありがとう!

お客様とパートナーの皆様、本当にありがとう!

競合各社の皆様、そ知らぬふりはしないほうがいい、背中に気をつけたほうがいいぜ。

 

Dell Technologiesはまだまだ赤ちゃんだ、マージしてから日が浅い。このVxRail リリースは僕らがこれからどうやって協力してやっていけるかどうかの布石ともいえるものだったが、僕らはこれだけ早くやってのけた。恐らく携わる者にとっては目の回る話だったろうけれど、早くやればやるほど僕らの勝利は近づく。同じく、VxRail もよちよち歩きの赤ちゃんだ、8か月だからね。(しかし8か月にしては成長が恐ろしく早く頭もいい!)

そして僕らはとどまることを知らない・・・VxRail そして VxRack SDDC が数か月後にはリリース予定。

ほら、8か月のおちびちゃんだってかなり頑張ってるだろ!

 

VG10.png

今回はいつものコラム形式ではなく、インタビュー記事形式でお送りする。来日していたEMCコーポレーションエマージング テクノロジー事業部でIsilonおよびScaleIO製品を担当しているバイス プレジデント デイビッド ノイ氏にIsilonで実現するデータレイク2.0について、さらにはストレージの将来に向けたブロックストレージ、オブジェクトストレージの連携、集約についても話を訊いた。

 

デビッドノイさん.jpg

デビッド ノイ氏

谷川さん.jpg

谷川 耕一氏

 

谷川:

まずは、競合製品に対しIsilonならではの優位性はどんなところにありますか?

 

ノイ:

拡張型NASは市場にたくさんの競合製品があります。多くが従来型の技術のままデュアルコントローラ化し、たんに筐体を追加できるようにしているだけです。なので、従来型のパフォーマンス・ボトルネックが発生する問題は解決できていません。

 

Isilonは、スケールアウトでフル分散して処理します。ノードすべてにデータを分散するので、ノードを追加すればするほどパフォーマンスが上がるアーキテクチャになっています。もう1つの強みはストレージOSのOneFSです。すでにVer8まで進化しており、エンタープライズ向けに成熟しています。拡張型NASを出しているスタートアップ企業などでは、このあたりはまだ始まったばかりでしょう。

 

さらにIsilonはクラウドと連携できるのも大きな特長です。Amazon Web ServicesやMicrosoft Azure、さらにEMC自前のVirtustreamと連携できます。このハイブリッドクラウド連携は、他社にはないものです。

 

谷川:

IsilonはEMCのデータレイク2.0のソリューションにおいて、重要なコンポーネントだと思います。このデータレイク2.0の考え方はどこから生まれたのでしょうか?

 

ノイ:

データレイク2.0は、より大企業向けに大規模な拡張型NASを使ってもらう議論をしている際に考えられました。製品を実際に使って行く中で生まれたものです。オンプレミス、データセンター、さらにはクラウドといったすべての環境でデータを快適に扱うとなれば、データレイク2.0の「エッジ」という発想が必要になります。そのためにIsilonに新たな機能を追加しました。さらに、データセンターでクラウドスケールのストレージを提供するために、EMC ECS(Elastic Cloud Storage)も提供しています。これらが登場したことで、データレイク2.0のすべてをEMC製品で運用できるようになっています。

 

谷川:

IsilonとECSの使い分けはどう考えればいいでしょうか?

 

ノイ:

Isilonはよりアクティブなデータを扱うためのものです。そのため高い性能が求められます。主に大規模なファイルなどを扱うことが多く、プロトコル的にはNFSやSMBの利用が多くなります。一方のECSは、アーカイブ的な用途に適しています。たとえばサービスプロバイダーなどがたくさんのサイトを運用している時に、そのアーカイブに利用する使い方です。こちらはオブジェクトプロトコルのSwiftやS3を使ってアクセスすることが多いでしょう。

 

谷川:

とはいえ、Isilonでもオブジェクトプロトコルへの要求はあるのではないですか?

 

ノイ:

たしかにIsilonでもオブジェクトへの要求はあります。なのでSwiftについては対応済みです。S3は、今後顧客から要望があればサポートするかもしれません。データレイクでの利用では、まだまだNFSやSMBへの要求が高いです。オブジェクトストレージとしての利用はまだまだ少ない。オブジェクトへの要求が高いのであれば、EMCとしてはECSを薦めます。

 

谷川:

ここ最近は「ソフトウェア・デファインド」が流行っています。ストレージも例外ではないでしょう。しかしながらIsilonはハードウェアとして提供しています。専用のハードウェアがあることでの優位性はありますか?

 

ノイ:

Isilonは、ハードウェアに対しチューニング済みの製品となっています。ハードウェアとソフトウェアを最適に融合しているのです。つまりIsilonは、コモディティなコンポーネントを集めて実現するようなオブジェクトストレージとは根本的に求めているものが違います。エンタープライズ向けの可用性、信頼性、そして高性能を提供するものです。

 

とはいえ、EMCとしてはハードウェアに固執しているわけではありません。今後はハードウェアとソフトウェアを別々に課金できるようにする予定もあり、さらにはコモディティなハードウェアもIsilonとして使えるようにすべきだとも考えています。

 

もう1つのポイントとして、顧客が今、フラッシュストレージに興味を持っていることがあります。オールフラッシュの性能と信頼性を求めているのです。オールフラッシュをさらに活用できるようにするためにも、ハードウェアとソフトウェアを別々に利用できるようにすべきだと考えています。今後提供するオールフラッシュの「Nitro」はそのための最初のステップになるでしょう。

 

Nitroは低レイテンシーで既存の10倍以上の性能が発揮できます。Nitroについては、すぐにでも試したいとの声が顧客からあります。ヘルスケア業界など、数億規模のクライアントからのデータを集めるところの利用などで強い関心を持たれています。たとえばウェアラブルの端末から心拍や血圧など膨大なユーザーデータを集めて利用するようなものです。膨大なデータがある中で分析をするとなれば、極めて高い性能が要求されるのです。

 

オンラインゲームの世界も同様です。世界中に何百万人ものプレイヤーがいて、そのデータをどこで管理するのか。さらに集められたデータをリアルタイムに活用するにはどうしたらいいのか。膨大なデータのアナリティクスの要求があるところでは、高い性能を発揮するNitroへのニーズがあります。

 

谷川:

Isilonはもともとメディアやエンターテイメントの世界で実績があったと思います。そのような領域でIsilonが評価されている理由は?

 

ノイ:

1つは、ストリーミングの機能が評価されています。秒あたり1.5テラバイトのパフォーマンスを発揮でき、4K品質の動画を複数ストリーミングできます。1台のIsilonのシャーシで、8つの4Kビデオを処理した実績があります。

 

谷川:

アナリティクス用の高性能なストレージとしては、EMCはDSSDも持っています。Isilonとは何が違いますか?

 

ノイ:

Isilonはハイパフォーマンスで、ミリ秒単位の性能になります。DSSDは超々ハイパフォーマンスで、0.1ミリ秒単位くらいのニーズに応えるものです。極めてリアルタイムな処理が求められる時にはDSSDとなります。Isilonは、4Uのシャーシで、シングルドライブあたり15テラバイトの容量、1筐体に60ドライブで900テラバイトまで拡張できます。経済性が高いのも特長です。

 

谷川:

ところで、Hadoopもある意味でスケールアウト型のストレージと捉えることができるかと思います。HadoopとIsilonは競合するのでしょうか。HadoopとIsilonの関係性はどうなっていますか?

 

ノイ:

Hadoopをさらに拡張できるのがIsilonです。Hadoopは、ほとんどがまだ小さな部門などで小規模に使われています。これをさらに広げようとすると、IT部門が管理するは大変です。ところがストレージをIsilonにすれば、大きく拡張してもIT部門の管理手間が大きく削減できます。Isilonであればストレージの拡張性にも優れており、Hadoopのように冗長性のために3つのコピーを持つ必要もありません。すでにスナップショットなどエンタープライズ用途に必要な機能も揃っているので、IT部門も安心して導入できます。

 

その上でNFSでもSMBでもアクセスできるので、データレイクをHadoopとIsilonの組み合わせで作ればさまざまな方法でデータにアクセスできます。そう考えれば、IsilonはHadoopをより使いやすくするためのものと言えます。

 

谷川:

Nitroが速いのは分かりますが、旧いIsilonと速いNitroを一緒に使うと旧いIsilonの性能に引っ張られ十分な性能が発揮できないのでは?

 

ノイ:

そうはなりません。超ホットなデータをNitroに置き、そうでないものは現行のIsilonに置く。そのように階層的にデータを配置できます。どのデータをどこに置くかは、企業がポリシーで決めることができます。なので、旧いIsilonの性能に引きずられることはありません。

 

この階層でデータを持てるのは、Hadoopの際にも効果的です。データを一旦処理した後で、データをシームレスに筐体間で移動できるのもIsilonの特長です。

 

谷川:

ところで今後統合することになるDellにも拡張型のNASがあります。今後はそれらとどう棲み分けるのでしょうか?

 

ノイ:

現段階でDellとの統合後にどうなるかは明らかになっていません。1つ言えるのは、大規模なデータレイクを構築するスケールアウトNASのソリューションには今後も力を入れ、そのためにIsilonへの投資は維持されるだろうと言うことです。現時点でIsilonへの投資は、何ら変わっていません。

 

谷川:

現状ではブロックストレージ、ファイル/オブジェクトストレージと大きく2つのものがあります。これらは将来的にはどうなると考えていますか?

 

ノイ:

これらの2つが、将来的に集約する流れが出てきていると考えています。それに対応するための調査はしています。すでに、1つのプラットフォームで両方を扱うことは考えており、それをコモディティハードウェアで実現するといったことも検討しています。たとえば、ブロックストレージが4ペタバイト、ファイルが20ペタバイト、オブジェクトが20ペタバイトといったものを、1つのプラットフォームで運用するのです。

 

現状でも1つのプラットフォームではありませんが、IsilonとScaleIOを連携させ、一元的に管理している顧客はすでにいます。

 

(執筆者:ITジャーナリスト 谷川耕一氏 ブログサイト:http://blogs.itmedia.co.jp/musasabi/

クイックな行動を起こすための更なる洞察力を提供

EMC World 2016でのMyService360の発表、及びそれに合わせたEMCオンラインサポートサイトのデザイン変更以来、EMCグローバルサービスでは個人向けにカスタマイズされたプロアクティブなサービスと製品サポートの提供により、お客様のサービス・エクスペリエンスを最新のものにすることに努めてきました。我々は中核としてもつ継続的な改良と共に、お客様からの直接のフィードバックなどをベースにしてEMCオンラインサポートとMyService360の更なる機能強化を実施しています。これら新たな機能は皆様が必要な情報を必要な時に迅速に入手し、行動に移すことを実現させるものです。

 

ほんの数ヶ月の期間で、EMCはお客様との関わりやEMC Worldで得たフィードバックを既に組み込んできました。ここでは6月と7月に提供された新たな鍵となる機能についていくつか見ていきましょう。

OLS Pic 1.png


鍵となる機能強化

EMCオンラインサポート

  • My Saved Products - 自分で保存しておいた製品リストをEMCオンラインサポートのWelcomeページからすぐに確認することができ、1クリックでその製品に関する最新コンテンツにアクセスすることができます(右の画像を参照)。
  • Improved Search - Welcomeページにリソース・カテゴリのドロップダウンメニューを設置してより早く関係性が高い結果を得ることができるように検索機能を改良しました。
  • Stay Connected with EMC Support - トレーニングやイベントなどの最新情報を得るために、我々ソーシャルサポートチームをフォローしてみてください、また皆様のオンライン・サポート・エクスペリエンスを最高のものにするために最新のサポートブログ投稿を読んでみましょう(下記参照)。

 

EMC MyService360

  • Health/Risk Overview - フィールド・チェンジ・オーダー(FCOs)やトラッキング可能なサービスイベント(TSEs)など、鍵となる影響関連情報に基づき描写される新たな地理空間マップを用い、皆様の環境全体の健全性を確認することができます。この表示や他のMyService360におけるデータを得るためには皆様のシステムをESRS v3につなげておくことをお忘れなく。
  • Onsite Services Overview - このインタラクティブなマップを利用して皆様の世界中に存在するインストール済み機器のどこにオンサイトサービスが行われるのかを簡単に確認することができます。
  • Onsite Services Schedule - この高機能でほぼリアルタイムなサービストラッキングシステムを利用して事前計画や皆様の日々の業務の優先順位付けを行いましょう。プロアクティブに行うメインテナンスや修復のためのメインテナンス作業の順番を時系列、もしくはその時の状態(以下参照)により再検討しましょう。カレンダーを使うと過去3ヶ月と向こう3ヶ月のサービスを確認することができます。
  • VCE Filter - 「Filter By」メニューに新たにつくられたVCEオプションによってどのEMC製品がVCEソリューションとして認識されているのかを簡単に判別することができます。これは将来のソリューションを中心としたエクスペリエンスの提供を可能とするための基礎をなす取り組みです。

blog 2.png

次に来るものは

これはまだ始まりにすぎないのです!我々は毎月EMCオンラインサポートとMyService360に関してリリースされる新機能のニュースを継続してアップデートしていく予定です。8月には、いくつか例を上げると、エキスポート機能、サービスリクエスト管理機能、そして新しいライブチャットサポートエクスペリエンスなどによる効率的なセルフサービスを可能とするための情報が出てくる予定です。

 

サービスとサポートエクスペリエンスの最適化

皆様のMyService360のエクスペリエンスは、システムがEMC Secure Remote Services Virtual Edition(ESRS v3)に接続されている時に最も効果的に実感することが出来ます。ESRS v3はセキュアで双方向のリモートコネクションであり、EMCカスタマ・サービスとEMC製品/ソリューションの間をつなぎ、皆様のEMCシステムの最新の状態を確認することができます。このしくみに関する更なる情報はこちらをご参照ください。

 

追加情報

support.EMC.comにログインして個人向けにカスタマイズされ、可視化されたMyService360の新しくなった機能の数々を確認する、もしくはEMC.comを訪れてMyService360について更なる情報を取得してみてください。

 

皆様のオンライン・エクスペリエンスをより良いものにするための更なるTipsや利用時のコツなどに関してはEMCオンラインサポートのHelp Pageにて詳細な使用方法を得たり、Connect with EMC Customer Serviceコミュニティで公開されているTip of the Monthセクションを訪ねてみてください。

 

46.png

 

Holly Anderson

EMC Social Support Principal Manager

Follow Us @EMCSupport

 

※本ブログはEMC Online Support and MyService360™ Updatesの日本語翻訳版です。

原文:VxRail 3.5 aka the Ghent June update is now GA! - Virtual Geek

 

June 13, 2016

 

 

vxrai1.jpgVxRail 3.5 “Ghent” ゲント がついに出た!

VxRailはほんとに熱い!7月9日にリリースされた3.5はもうすでに話題をかっさらっている!

お客様、フィールド、そしてパートナーさん達からのVxRail のフィードバックはかなり上々だ。

しかも大切なのはそういう声をちゃんと聞いて、学んで、そして順次対応して結果を出してきた

チームのみんなに感謝の意を表したい!

 

何が新しいかって?こんなにいっぱい・・・・

 

vxrai2.jpg

*VxRailはめちゃくちゃ濃密度!オールフラッシュ+3D TLC NANDで76TB のデバイスがたったの2Uに収まっている。

VxRailは完全無欠な64-nodeオールフラッシュ構成も可能で1,792 core さらに,216 TB of raw storageという業界一

パワフルなHCIA(Hyper Converged Infrastructure Appliance )として高速処理を要求するアプリケーションにも対応可能。

 

*VxRailは “powered by VSAN”!

Ghent リリースでは、というよりこれからも基本的にVxRailはvSphere/VSAN release のスケジュールに合わせて行く。

VSAN 6.2 は数えきれない利点を含んでいるし!(たとえばDedupe, Compression, Erasure Codingとか)

 

*Storage QoS はVM、VMDK レベルで!

 

*Single nodeごとのスケーリング!アプライアンス毎(4node 毎)でしかスケールアウトできなかったのにそうじゃないってすごい!

 

*VxRail Managerのさらなる進化。僕の個人的な見立てだと8割方新しいんじゃないかな。もちろんそれだけじゃ終わらないけどね・・・・

 

*VMwareバンドル用のData Protection Suiteの充実(バックアップリカバリから継続データバックアップそしてモニタリング、多様な管理能力機能の充実など。。) 

 

*ライセンシングの柔軟性の強化 かつてはスタンダードvSphereをnon-VLP applianceには入れてた

けど、バンドルじゃないライセンスへの要求が多かったので今回は大抵のライセンスを使用可能に。

 

*Horizon bundles などの特別ライセンスモデルの販売。その種類はどんどん増えていくよ!

 

*Metro Stretched Cluster(サイト間クラスタ構成)サポートの開始。

 

これまでに90%の商談がチャネルパートナーなどから寄せられている。

VxRail はシンプル、そして簡単に買うことも売ることも出来て、且つ使用も簡単、そして何よりその利用価値をすぐに実感することができるものなんだ。

 

僕らはESGにこの素晴らしい製品を確認してほしいとお願いした。

その結果がこちら・・・

Vxrail3.jpg

EMCer (VCE スペシャリストも含め)ならその結果は手に入れられるよ。。ここで!

Partner ならここ!

 

これらのサイトからサイジング、構成ツール、また競合との比較結果、運用例などのVxRailに関する情報なら何でも手にはいるよ。デモだってあるからね。

 

 

なぜお客様はVxRailを選ぶのか・・・

 

君がvSphere使っているとして・・・・

 

*今あるスタンダードの延長であるHCIを選ぶでしょ?

*VMwareとエンジニアリングされたHCIを選ぶでしょ?

*VMwareのシングルサポートが受けられるHCI を選ぶでしょ?(multi-vendorが合いまみれるぐちゃぐちゃなサポートがいいの?)

*ぴか一のパフォーマンスを誇るHCIを選ぶでしょ?

*お買い得なHCIを選ぶでしょ?

*オールフラッシュ環境に最適化されたHCI を選ぶでしょ?

*Data DomainやVMware DPS suiteなどバックアップに定評のあるストレージと連携するHCIを選ぶでしょ?

 

 

もし君がvSphere を使っているなら・・・VxRailはぴったり。

もし vSphere を使っていないなら、そんな君にはHyper-converged Appliance はVxRAILではなく、VxRackの方かもしれない。

 

 

つぎはどこへ・・・・

*hardware supply chainへのスピードを上げた改良と改善。もちろんソフトウェアがメインだが ハードウェア

もポイントの1つになる。(実はその要求ってのは前々からあったんだ)これでVxRAILは業界一のHCIAハードウェア構成になる。間違いない!

*最小構成の3node、いや2nodeであってもVxRAILは他のどんなHCIAよりも柔軟にスケールアウトする。

*ハードウェア構成選択の拡大。たしかに実際問題としては2U4N位が丁度いい上限だとは思うけれど顧客ニーズへの対応も考慮して

1U1N (これはかなりお買い得)、 2U1N (ストレージが欲しい人にはぴったり)などの選択肢も増やす予定。

*これはもうちょっと先の話かもしれないけど・・・NVMeやNGNVMの影響で次のvSphereとVSANはVxRAIL SDDCでもっと密接に連携するから

楽しみにしておいてほしい!いまはここまでしか話せないけどね!

 

 

(June 13, 2016の時点で)VxRAILはマーケットに出てからまだ118日しかたっていない。

 

EMC/VMware 共同開発チームと僕は僕らより長く歩いて来た同業者に並々ならぬ敬意を払っている。でもね

僕らも最高のものを作った。だから見ていてくれ。殴り込みにいくぜ!

 

 

まだまだ出だしだからわからないけれど、ぼく個人は VxRail の成長はおそらくXtremIOをしのぐだろうと思う。

原文:ScaleIO the best multi-platform transactional SDS? - Virtual Geek

August 02, 2016

 

 

僕から言わせると、ストレージ市場での変革は最高速度に達している。 

 

時代の流れを見ると(1990-2015) “persistence”(従来型)が“external”(外付け)乃ち “arrays”にどんどん染まっていった時代そして、今度はNAND を使ったx86で走るSDSスタックが成長株となっている。

 

SDSの典型的な提供方法は・・・

a)ソフトウェアのみ

b)サーバーとのバンドル(VSAN-Ready NodeとかScaleIO-Ready Nodeとか)

c)ハイパーコンバージドインフラ(アプライアンス、Rack-Scale 含む)

d)サービスとしての提供(Virtustream Cloud StorageやAzure blob storeのような)

 

とは言ってもまだまだ外付けストレージ優勢であることは確かで、all-flash arrayがトップであることは間違い無い。

•vSphereにどっぷりつかった顧客、hyper-integrated vSphere stackを構築したい顧客にとってVSAN普及の加速, VxRail やVxRack SDDC ビジネスの浸透は何よりもその変貌が象徴的だろう。

•ScaleIO, VxRack FLEX business の加速度を付けた普及はバラバラに散らばったスタックや、transnational storageをまとめるためのサポート体制、いってみればSAN の代用物へのマーケットの要求の表れだろう。

 

しかしその中でもたしかに言えるのは・・・

1つのSDSスタックがすべてをまかなう、ということにはならないであろうということ。それは1つのストレージアーキテクチャが存在しないのと同じ理由だ。

 

だから僕は“VSAN なのかScaleIO”なのか・・・で悩んでしまうんだ。これはAとB であり、AもしくはB、ということではないんだ。

vSphereなお客様にとってVSANが一番の選択であれば、ScaleIOはVSANの異成分(内包されているのに・・)とみなされてしまう。だから僕は以下のコメントが一番しっくりくるんだ・・・・

 

ScaleIO はマーケットにあるmulti-platform transactional SDS のなかではぴか一。

パフォーマンスよし、スケールアウトもよし、OS はもとよりHypervisors,そしてcontainer ecosystemなどどんなプラットフォームもサポート。

 

なぜ?

 

まず一点目に・・・論より証拠。SQL Server OLTP workload と two-tier configurationの比較結果

を見てStorage Reviwerがいった言葉をそのままお知らせしよう。

 

『まず私たちはapplication performanceの観点でHCIでのScaleIO VxRack Nodeの確認をしました。同じストレージ上でScaleIO ソフトウェアは何の損傷もありませんでした。これは他のHCIプラットフォームがCPU食いであることを考慮しても素晴らしい結果であり、結果として、アベレージのレイテンシを12.5msから10.3msにまで下げることになりました。SQL環境のhyper-converged storage solutionによってパフォーマンスを要求するお客様にとってScaleIOは私たちが今までテストしたHCI solutionではダントツです』

 

そして第二点目・・・ transnational SDS として知られているのはCEPH RBD だろう。こういうようなね。。 OpenStack ecosystem 

そしてScaleIO は CEPH RBDに 7x-10xのパフォーマンスを約束している。

すごいだろ・・・ -KVMを使ったOpenStack の導入を考えている君なら他のSDS選択をしてScaleIO を使わないなんて気がくるってるとしか言いようがないさ。 7x-10x の改善を見逃すなんて自分をパンチしたくなると思うよ。詳しくはこちらから。

 

さて、そして第三点目!

ScaleIOほどcontainer ecosystemにうまく融合するtransactional SDS は無い!もしあるんだとしたら教えてくれ、是非ここに追記する!

Dockerはもとより、 Mesos, Kubernetes, Photon Platform workでさえも対応している。ScaleIOにはpersistence volumeに対してのコントローラが、そして認証ツールがあり、、、至れりつくせりってなもんだ。ソースコードだって手に入れられる。

ま、君が超ド級なobject S3-compliant SDS stacを手に入れたいのであれば、選択肢としてはECS ってのもあるけど!

 

そして最後に・・・

ScaleIO を HCI Rack-scaleの起爆剤として手にしたいのであれば VxRack FLEX がぴったりだよ。今や多くのお客様がこの流れになってるね。“web scale”ってみんないうけど、これに関してはまったくのウソじゃない、だって低い CAPEX (設備投資)から始める事が可能で最初っから大風呂敷を広げる必要はないんだから。そして何よりSDS/HCIは運用面でのシンプルさを他のどのシステム構成よりも提供することが可能なんだから。

 

写真は16-cabinet VxRack FLEX。何も自分たちで最初っから構築することなんてないんだよ、

僕(だけでなくほかの2500人の、あ、いやDellと一緒になったら3500人か!)の仕事ってのはインフラをいかに気が付かない物にさせていくか・・・

なんだからね。

VGQ3.jpg

世の声:『じゃミッションクリティカルでも使用可能なの?』

僕の回答:『もちろん!』

直近のお客様では彼らのコアビジネスであるOracle RAC cluster の為にVxRack型のScaleIOを導入してくれたよ。

そりゃSDS stackはエンタープライズものと違ってハイエンドなRemote Replicationやらは無いけれど

ほとんどのお客様環境で実用的かつ満足度高し、だよ。だってWorkLoadsに大切なのはSubnetでありSUPER SET じゃないだろ。

必要なのはsuper-scalable, super-simple, super-performant, super-simple transactional SDS!

そしてしかもお財布にも優しい!(対価として)

 

業界にとって何を意味するのか・・・

•もし君がstorage vendorでSDS stack無なら、早めに動いたほうがいい。そうしなければ置いてけぼりを食らうぞ。。

僕らには豊富なプラットフォームのラインナップがあるからね。

vSphereのお客様にはVSAN 、多種多様なtransactional SDSを求めるならScaleIO、NASならIsilonSD Edgeだし、S3-compliant objectならECS!どうだ!まいったか!

•もし君が storage vendor であのすばらしいx86 server 無で戦いを挑むなら、やっぱり早めに動いたほうがいい。hardware は二の次、というのはちょっと不公平だけど HCIではCOGS(売上原価)50%以上がHWだからね。でも最新のNANDやNGNVM無では大変なことは目に見えている。

•そして君がまだSDS optionを評価していないお客様であれば、見逃さないでほしい!でも僕の言ってることだけを信じないでほしい。

たしかにScalIOは簡単で早い、そしてソフトウェアだけでのデプロイができるから営業にいろいろ見せてもらう事もない。

しかしすべてのストレージに取って変われる、と断言するのは大げさだろう。しかしこれからのIT ソリューションの中で

かなり重要でかつ便利なツールになることは確かなんだよ。

 

〆はこの一文。。。。同意不同意、じゃんじゃんコメントくれたまえ。

 

ScaleIOはマーケットにあるmulti-platform transactional SDSのなかではぴか一である。

どのSDS製品よりもパフォーマンスが高く、拡張も柔軟性に富んでいる。 そして他のどんなOS ,プラットフォーム、hypervisor、container ecosystemとも効果的に融合する。.

 

ScaleIO を使ってみた君、君の声も聞きたいな!

EMCコア テクノロジー、データ保護、可用性ソリューション担当SVP

Beth Phalen (ベス フェイリン)

 

今日、ITのコミュニティが大きく広がっていることは誰の目にも明らかです。このような環境で、ほとんどのITプロフェッショナルの方は、日々の問題への対応と解決に追われ、自社のデータ保護環境の進歩・発展状況を把握する時間もないのが現状です。しかし、実際に企業が従来型のリスクからデータを保護する環境は進歩しています。先日、EMCが発表した「EMC Global Data Protection Index 2016」調査の結果から、企業における従来のデータロスの原因である4大リスクの発生頻度が減少していることが明らかになっています。これは、どのような状況においてもデータの可用性を確保するための努力が着実に実を結んでいることを示しています。

 

ただし、データ保護に関するすべての状況が順調というわけではありません。

 

企業が従来のリスクに対する防御態勢を強化している一方で、データ保護に対する新たな課題が発生し、準備ができていない企業に被害を与えています。2014年度の調査(「EMC Global Data Protection Index 2014」)と比較すると、この12カ月間にデータロスやデータの破損を経験した企業の割合は13%増えており、その損失額は平均で914,000 USドルとなっています。

 

データの安全を確保するために、企業が把握しておくべき新たに発生した3つの大きな課題とはどのようなものでしょうか。

 

1) 破壊的なハッキング攻撃からの保護

 

本調査から、調査対象企業の36%が社内外のセキュリティ侵害の結果としてデータを失ったことが明らかになっています。偶発的なデータロスに対する防御の鍵となるのが、保護用のコピーを作成することです。ただし、企業に損害を与えることを目的として用意周到に攻撃してくるハッカーであれば、保護用のコピーも安全ではありません。このように急速に変化している脅威に対して、EMCの「Data Domain」と「Data Protection Suite」は防御態勢を強化し、データ保護を高めるさまざまな機能を提供します。企業は、高度なデータ保護ソリューションを活用するとともに保護用のデータ コピーとネットワークとを分離することで、さらに防御力を高めることが可能になります。このようなデータの隔離を実現するEMCの「Isolated Recovery Solutions」によって、大規模な攻撃からでも、データを復旧することができます。

 

2) クラウド環境のデータ保護

 

本調査では、調査時においてクラウド データを破壊から保護している企業も、削除から保護している企業も、全体の半分に満たないことが明らかになっています。なぜなのでしょうか。それは、多くの企業が自社の利用しているクラウド ベンダーが自社に代わってデータを保護してくれていると考えているためです。しかし、オンプレミスのIT環境にデータ保護戦略を適用することが重要であるのとまったく同じように、クラウドのIT環境についてもデータ保護戦略を策定しなければなりません。クラウド環境で、もし従業員の誰かが間違ってファイルを削除してしまったり、ウイルスに感染したりしても、通常はクラウド ベンダーは対処してくれません。このような場合に備えて、「EMC Spanning」のようなSaaSバックアップ ソリューションでアプリケーション内データのバックアップをスケジューリングすることで、必要なときにバックアップ バージョンをいつでも利用できるようになります。企業の90%は、データ保護のターゲットとしてもクラウドを使用しています。「EMC Data Domain Cloud Tier」のようなツールは、重複排除したデータをセキュアかつネイティブにクラウド環境へティアリング(階層化)することで、最も効率性に優れた長期的なクラウド ベースの維持環境を実現します。

 

3) フラッシュ環境に格納しているデータの保護

 

現在使用しているデータ保護ソリューションについて、フラッシュ ストレージのパフォーマンスの高速化と新しい機能のペースに合わせていく自信がないと回答した企業の割合は76%に上ります。ほとんどのプライマリ ストレージについて、従来のディスク ベース ストレージよりもオールフラッシュ アレイの方が優れた費用対効果を発揮するという認識が企業間に浸透するようになる「オールフラッシュの年」である2016年、このような自信の低さは、準備が整っていない企業・組織にとって問題となります。特にフラッシュアレイのワークロードが高い企業の場合、従来のバックアップ インフラなしにプライマリ ストレージから「Data Domain」にデータを直接コピーする「EMC ProtectPoint」によって、バックアップの所要時間を10倍、復旧の所要時間を20倍高速化することが可能になります。

 

全体として、自社のデータ保護ソリューションが将来のビジネス課題に対応できると信頼している割合は、5分の1以下でした(18%)。新たに発生した課題に起因するデータロスや破壊によって、すでに過去12カ月の間に世界中の企業の損失額の平均が914,000 USドルに上る現状を踏まえ、企業は将来に向けたデータ保護戦略の最適化に、いますぐ取り組む必要があります。これには、従来の脅威に対して行ってきた保護戦略の基盤を新たな課題に対してさらに拡張し、あらゆる場所・場面で確実にデータを保護することを支援できるベンダーとのコラボレーションが不可欠です。

 

あなたのデータは適切に保護されていると自信をもって言えますか?

 

原文(英語):http://pulseblog.emc.com/2016/06/28/data-still-protected-three-steps-save-enterprises-1m-year/

プレスリリース(日本語):http://japan.emc.com/about/news/press/japan/2016/20160722-1.htm

関連サイト(英語):http://www.emc.com/microsites/emc-global-data-protection-index/index.htm#

datalake-architecture.png

  • 分析目的のデータレイクももちろん有効

データレイク構築のアプローチでは、社内に散在するファイルや非構造化データの集約における管理の効率化を目指すアプローチが実現しやすいとの話をしてきた。

 

企業内で増え続けるファイルや非構造化データを、集約し効率的に管理する。そのために、データの再構成なしに拡張できるスケールアウトNASを活用する。また管理を集約してもユーザーの使い勝手を損なわない利便性を提供するために、エッジとコアという新しい構成を提案する。さらにデータアーカイブへの要望には、パブリッククラウド環境も含め適材適所にデータ配置できるようにする。それが新しい「データレイク 2.0」であり、これを実現するのに最適なのがスケールアウトNASの「EMC Isilon」と言う話をしてきた。

 

このデータレイク 2.0を運用すれば、自ずと社内にある非構造化データが1カ所に蓄積される。つまりは、企業におけるビッグデータプラットフォームができあがることに。次のステップで、この蓄積したビッグデータを分析対象にする。これで、段階的にデータレイクをステップアップできるわけだ。こういったアプローチであれば、当初から企業内に散在する情報の集約管理でメリットを出しやすい。なので、データレイクへの予算獲得も容易だろう。

 

しかしながら、最初からビッグデータに対する分析を目的にデータレイクを構築するアプローチもある。現状ならデータウェアハウス用の大型アプライアンスなどを運用している場合も多いだろう。導入からしばらくすればデータ量が増加し、さらなる分析要求も出てくる。そうなれば、性能的にも容量的にも逼迫することに。この課題の解決には、データウェアハウス・アプライアンスをスケールアップで増強することになる。しかしスケールアップでは、往々にしてそれなりの追加コストが発生する。性能的にも扱えるデータ容量的にスケールアップではある程度のところで頭打ちとなることも多いのだ。

 

一方で新たな分析要求を満たすために、オープンデータとして提供される外部データやマシンログなどをデータウェアハウスに取り込みたくなるかもしれない。それらを取り込むとなれば、データ構造をしっかりと決めETL(Extract、Transform、Load)の仕組みをきっちりと構築しなければならない。そしてデータを1つ増やすたびに、ETLのバッチ処理が1つ増えることにも。ただでさえ「夜間バッチが突き抜ける」ような状況にあれば、このようなデータ追加要求はおいそれとは受け入れられない。

 

このような課題を抱える「性能、容量的に逼迫しているデータウェアハウスでは、Hadoop + Isilonという組み合わせでワークロードをオフロードできます」と言うのは、EMCジャパン システムズ エンジニアリング本部 プロダクト ソリューション統括部 ITソリューション エバンジェリスト部 エバンジェリストの牟田泰孝氏だ。牟田氏は分析アプローチのデータレイクも、大きな用途であることは間違いないと言う。実際に、新たな分析プラットフォームとしIsilonの活用を提案する機会は多いとのことだ。

 

  • ワークロードをデータレイクにオフロードする

データウェアハウス・アプライアンスのワークロードをオフロードする。そのためにHadoopを活用して新たなデータを柔軟に取り込み、SQLのインターフェイスを使ってデータウェアハウスにもHadoopのデータレイクにも透過的にアクセスできるようにする。これはビッグデータ活用の1つの理想像だろう。とはいえ、データレイクのためにHadoopの多ノード構成を構築し運用するのは簡単ではない。ワークロードのオフロードを行いたかったのに、Hadoopクラスターのお守りに手間をとられるのでは困ってしまう。

 

これに対し「データレイクが大きくなってきたときに、HadoopだけでなくIsilonがあるとエンタープライズレベルの使い勝手で拡張できます」と牟田氏は言う。Isilonはマルチプロトコルに対応しており、もちろんHadoopの分散ファイルシステム「HDFS」もサポートしている。

 

IsilonではストレージOSの「OneFS」が稼動しており、筺体に配置されているすべてのノードにデータを分散配置する。通常のHadoop構成であればノード間通信にはEthernetが使われるが、Isilonではより高速に通信できるInfiniBandインターコネクトを通じ書き込みを行う。これだけでも、通常のHadoop構成よりもかなりの高性能が期待できる。

 

またHadoopは、冗長化によるデータ保護のために1つのデータを3つ以上のサーバーに書き込む。つまりデータは3重持ちかそれ以上となる。対してIsilonではN+2のパリティ保護の仕組みを採用しており、データ容量的にも効率性はかなり高い。

 

Isilonは1つのノードにディスク、CPU、メモリ、ネットワークが搭載されており、複数ノードを単一のファイルシステムとして統合管理できる。データを書き込む際は自動的に各ノードに分散してデータとパリティを書き込む。これで1つのノード障害、あるいはノードを跨ぐハードディスク障害が起きてもデータは保護される。「ディスク障害でもノード障害でも、データには100%アクセスできます」と牟田氏は言う。

 

  • Isilonと組み合わせることでHadoopがエンタープライズレベルになる

このIsilonをHadoopの分散ファイルシステムとすることで、Isilonがもともと持っている各種エンタープライズ向け性能、機能をHadoopで利用できるようになる。たとえばIsilonならではのものとしては、Isilonの中でデータを階層的に管理できる機能がある。Isilonでは順次筐体を追加し拡張できるが、この際にモデルの異なる筐体が組み合わされても問題はない。混在した際にはアクセス頻度の高いホットデータは最新の高性能な筐体に、利用頻度の少ないデータは旧い筐体でと、データ利用頻度に合わせデータ配置を階層管理できるのだ。

 

「これはIsilonではすでに普通に利用している機能です。Hadoopではやっと階層管理の考えが出てきたところでしょう」と牟田氏。Isilonでは3年、5年といったタイミングでハードウェアを交換、追加が前提のアーキテクチャとなっている。階層化はそのための機能でもあるだろう。さらに拡張が前提なので、無停止でのアップグレード機能も搭載されている。これまでもマイナーバージョンアップであれば無停止で行えたが、最新のOneFS 8.0ではメジャーバージョンアップでもシステムを止める必要はない。

 

また、Isilonと組み合わせればコンピューティングとストレージを分離できるメリットもある。汎用サーバーを使ったHadoop構成では性能が足りなければ、データ容量に余裕があってもノード追加でCPUもストレージも一緒に増やす。これはストレージ容量が足りない場合も同様だ。ファイルシステムをIsilonに任せれば、性能と容量の要件に対し個々に対応できる。性能のためにCPUノードだけを増やす、容量確保のためにIsilonに筐体を追加する。それぞれを柔軟に拡張できるわけだ。

 

HadoopでIsilonを使うことで、「Hadoopはエンタープライズレベルにモダナイズされる」と言ってもいいだろう。これと同様なメリットは、最近利用が増えている「Splunk」などでも得られる。マシンデータなどをリアルタイムに収集、蓄積し容易に分析できるようにする統合ログ管理ソリューションSplunkでは、利用を続けていればどんどんデータが膨れあがり性能面の課題も出てくる。そうなれば、どんどんサーバーを増やすことに。

 

「大規模なSplunkのシステムでは、これまでのやり方で拡張し管理し続けるのは厳しいものがあります。そこでIsilonを組み合わせると、データ管理を気にせずにSplunkを活用できるようになります」(牟田氏)

 

汎用サーバーなどを多数並べて大きな拡張性を担保する方法は、大型の専用アプライアンスのようなものを採用するよりも、スモールスタートがしやすく安価に利用できる。とはいえ、ノード数が多くなれば運用の手間は大きくなり、TCOをむしろ上げかねない。さらに、それがオープンソース・ソフトウェアベース(OSS)の仕組みの場合は、セキュリティやコンプライアンス、データ保護など非機能要件部分がどうしても商用ベースの仕組みより弱いことも多い。

 

そこで今回話題にしたHadoopとIsilonのように、OSSの仕組みとエンタープライズで実績のある仕組みをうまく組み合わせ、全体をエンタープライズレベルに引き上げるのだ。Hadoopの弱いところを補い、良い面を引き出すにはどうしたらいいのか。そういう視点で新しい技術の組み合わせを考えることも、IT部門で今後必要とされるスキルとなるだろう。

 

(執筆者:ITジャーナリスト 谷川耕一氏 ブログサイト:http://blogs.itmedia.co.jp/musasabi/

capture-20160714-153909.png

 

  • 乱立するNASの課題を解決するスケールアウトNAS

前回のコラムでは、分析だけを目的にするデータレイクはなかなかうまくいかないと指摘した。一方で企業では、ユーザーが普段利用するファイルデータなどが増え続けており、そういったさまざまな非構造化データの増加にIT部門は頭を悩ませている。増え続ける非構造化データを保管するために、多くの企業ではNAS(Network Attached Storage)が乱立していることだろう。今後のデータ増加に併せNASを増やすとなると、それらの運用管理にさらに時間を奪われることにもなる。

 

乱立するNASの管理を効率化する1つの方法が,スケールアウト型のNASストレージを導入し非構造化データの管理を集約することだろう。従来型のNASの欠点である拡張性のなさを克服し、あらかじめ「拡張することを前提に設計」されているのがスケールアウト型のNASだ。

 

たとえば、スケールアウトNASの「EMC Isilon」であれば、ノードを追加するだけで簡単にストレージ容量を増やせる。その際にも、ストレージを停止しデータのマイグレーション作業を別途行う必要はない。さらにノードを追加してもファイルシステムやボリュームは単一なもののままだ。そのためアプリケーションやユーザーからの見え方は変わらない。バックアップやマウントポイントの管理などのストレージに関する運用管理の手間も、ノード追加でディスク容量を増やしても変わらないのだ。このスケールアウト型のNASを導入するだけでも、乱立するNASの課題の多くは解決できることになるだろう。

 

またIsilonであれば、マルチプロトコルに対応する利点もある。EMCジャパン 執行役員 アイシロン事業本部長の倉橋秀則氏は「Isilonは万能ナイフのようなものです。入り口がどうであれ、Isilonにデータが入っていれば、あらゆるものからデータを扱うことができます」と言う。

 

  • 無理に1カ所に集約しない柔軟な構成の新しいデータレイク

さらにこのスケールアウト型のNASを活用し、非構造化データの管理の効率化、非構造化データのさらなる活用をしようというのが、新しいデータレイクの考え方だ。EMCではそれを「データレイク 2.0」と呼んでいる。

 

そもそも分析だけを目的にしたデータレイクがなかなかうまくいかない理由の1つが、大規模な非構造化データなどを1つの大きなシステムに集めようとすると、そこに大きな手間が発生することだ。たとえば分析目的のデータレイクではHadoopが使われることが多い。IoTの仕組みなどを新たに構築し、最初から発生するデータの蓄積先をHadoopのファイルシステム「HDFS」にしていれば問題はないだろう。

 

すべてのデータがHDFSにあればいいのだが、多くの場合はHDFSの外にデータが蓄積されている。それらをHDFSに移動しHadoopで使えるようにするには、じつはかなりの手間がかかるのだ。ソースとなるデータをHadoopにローディングする時間は、実際にそのデータの分析にかかる時間よりも遙かに長くなるとも言われている。

 

データレイク 2.0では、単一のデータセンター、単一のシステムに無理矢理データを集めることはしない。クラウドを含むエッジにまで接続範囲を広げ、柔軟な構成でデータレイクを構築するのだ。

 

たとえば動画などのサイズの大きなデータを、無理してでも本社データセンターのスケールアウトNASに集約したとする。ストレージの管理拠点はそれで1カ所に集約され、効率化することになるだろう。一方でデータを利用する際には、1カ所に集めたが故の弊害も出る。

 

本社データセンターの近くにいて、直接そのファイルを扱えれば問題はない。ところがいまや、企業は世界中に数多くの支社や開発拠点を持つのは普通だ。各拠点同士がコラボレーションしながら業務を行う。リモート拠点のデータ利用者は、ネットワーク越しに巨大なファイルを扱うことになり十分なレスポンスが得られない可能性は高い。つまり管理性を向上させるためにデータを集めることが、ユーザーの利便性を損ねかねないのだ。

 

これに対しEMCのデータレイク 2.0では、データレイクにコアとエッジという考え方を導入している。コアにはスケールアウトNASのEMC Isilonを導入するのは、従来のデータを1カ所に集約するデータレイクと同じだろう。これに加えエッジ向けにSoftware-Defined Storageを提供することで、リモートオフィスでのユーザー利便性の確保と同時に、データ管理をコアと連携して簡素化できるようにしている。

 

エッジで活用するSoftware-Definedのソリューションが「IsilonSD Edge」だ。これはコモディティ・ハードウェアで稼働して、VMware ESXをサポートしVMware vCenterとの統合もなされている。よりシンプルな管理環境を実現できる。コアとエッジ間では、シームレスなデータレプリケーションが可能だ。必要なデータをコアからリストアする機能もある。コアのIsilonと同様、エッジでも実績のあるマルチデータサービスとマルチプロトコルをサポートするストレージOS「OneFS」をサポートしている。

 

  • エッジからさらにパブリッククラウドまで拡張する

このデータレイク 2.0のもう1つの特長がクラウドへの対応だ。倉橋氏は「いまやクラウド戦略を持っていなければ、ベンダーは顧客の支持を得ることはできません」と言う。実際、増え続けるデータの保管先としてパブリッククラウドを検討する顧客は増えている。そんな際に「オンプレミス vs パブリッククラウド」でどちらが良いかを競い、顧客に選択を迫るのは良くない。適材適所で活用できるものは積極的に利用する。データレイク 2.0においても、パブリッククラウドも活用すべきと考えた。そのためにEMCが用意したのが「EMC Isilon CloudPools」だ。

 

Isilon CloudPoolsを使うと、非構造化データ用のストレージをパブリッククラウドにまで拡張できる。これにより、クラウド規模の容量を容易に獲得でき、ユーザーに高い経済性と柔軟性を提供する。このクラウドストレージは、主にコールドデータを保存するのに利用する。

 

企業では、増え続けるデータをおいそれと消すことができない。そこで、コールドデータと呼ばれるような普段は使わないが消すこともできないデータは、切り出してパブリッククラウドに保存すると言うわけだ。この時のデータの見え方としては、コアであるIsilonから一元的にクラウドにあるデータも含めて見ることができる。

 

エッジにあるファイルのバックアップをコアにとる。逆にコアのデータの中からリモートでも活用したいものは、適宜エッジにレプリケーションをする。そうやって非構造化データを活用していく中で、コールドとなったデータは積極的にクラウドに出していく。企業における非構造化データの管理は、今後はこのような方法が主流となるのではないだろうか。

 

そしてこの階層的な非構造化データの管理の仕組みをIsilonで構築しておけば、運用管理を効率化するだけでなく次のステップも踏み出しやすい。マルチプロトコルに対応しているので、分析という攻めのITにも転じることができるのだ。IsilonはHDFSにも対応しているので、格納されているデータをHadoopの仕組みを使って分析対象にすることも容易だ。その際に、面倒なHadoop HDFSへのロードという手間は改めて必要ない。

 

EMCのデータレイク2.0は「守りのITと攻めのITを一元化するものです」と倉橋氏は言う。このアプローチは一足飛びには攻めのITに変われない、IT部門の現実にかなりマッチするものでもあるのだろう。

 

(執筆者:ITジャーナリスト 谷川耕一氏 ブログサイト:http://blogs.itmedia.co.jp/musasabi/

capture-20160701-114037.png

 

  • ビッグデータ、Hadoop活用から生まれたデータレイク

日本でビッグデータという言葉が使われ始めたのは、2010年頃だろう。そして、ビッグデータの普及とともに広く認知されたのが「Hadoop」だ。このHadoopを活用する1つの形として「データレイク」という概念も登場、IT業界の新たなキーワードとなった。

 

データレイクという言葉を最初に使ったのは、オープンソースのBIツールを提供しているペンタホ社のCTO ジェームス・ディクソン氏だと言われている。ちなみにペンタホは現在、日立の米国子会社である米国日立データシステムズ社に買収されている。

 

BI、Hadoopのソリューションから生まれたデータレイクは、企業などが活用し切れていなかった大量の非構造化データを貯めて活用するためのものと説明されることが多い。これは、かつてのリレーショナルデータベースで実現しようとした「データウェアハウス」や、その下で機動力を発揮する「データマート」といった言葉に対比する形で新たな分析プラットフォームとして「データレイク」と表現されたようだ。企業内の基幹系システムなどから発生する構造化データを集めて活用するのがデータウェアハウスやデータマートなのに対し、活用されてこなかった非構造化データをすべて貯めて新たに活用するのがデータレイクと言うわけだ。

 

  • 使わないかもしれないデータを溜めるデータレイクには予算が下りない

データウェアハウスが最初に流行った1990年代後半から2000年代前半の頃は、データウェアハウスの新たなデータ活用基盤としての評価はそれなりに高かった。しかしそれを上手く構築し、十分に活用できた企業はさほど多くはなかった。当時のハードウェアやデータベースでは、テラバイト規模の「当時としては大規模な」データベースを構築し高速処理するのが簡単ではなかったのだ。

 

さらに、基幹系システムはサイロ化しており、そこからすべてのデータを分析用にデータウェアハウスに集めるのにも手間がかかった。データウェアハウスにデータをロードしようとすると、夜間バッチの時間が足りなくなり「バッチが突き抜ける」状況にも。結果的にすべてのデータ収集は諦め、集約した情報を扱うしかなくなる。データが発生したらすぐに分析したいと言った、リアルタイムの要求にも応えられなかった。大規模データウェアハウスは諦め、小さく始めて大きく育てるアプローチなんて言うのも登場した。

 

どうやらデータレイクでも、かつてのデータウェアハウスと似たような課題が生まれている。つまり、発生するすべての非構造化データをとにかく溜めておくと言うのが、いくら拡張性の高いHadoopを使うにしてもなかなか上手く行かないのだ。

 

1つはデータボリュームの問題。非構造化データは基幹系システムなどから生まれる構造化データに比べ、桁違いにボリュームが大きい。Hadoopが拡張性に優れてるとはいえ、巨大な非構造化データを扱うのはそう簡単ではなかった。数ノード、数10ノード程度で賄えればまだしも、データレイクのために数100、数1000とノードを増やしたHadoop環境を運用するのはかなり大変だろう。

 

生成される非構造化データが、最初からHadoopの中に格納されるならばいい。しかし企業の中では、さまざまなシーンで非構造化データが生まれている。それらをある程度整理し、データレイクとなる「Hadoopに入れる手間」が、実はかなりかかることも分かってきたのだ。

 

また、データレイクのデータは「どう使うか分からないけれど、とにかく余すことなく貯めておく」という性格のものだ。価値があるものを捨ててしまえば、その価値を手にすることはできないからだ。なので、使わないかもしれないけれどとにかく溜めておく。ところが使わないかもしれないものに、莫大な投資ができない現実も露見する。明確にビジネスメリットが伝えられないと、経営者層からはデータレイクのための予算承認が下りないのだ。

 

そうなると、仕方がないのでデータレイクも「とりあえず小さく始める」なんてことに。なんだかこれでは、本来のデータレイクの目的から離れていってしまいそうだ。

 

  • 分析に閉じない新たなデータレイクが評価されている

ビッグデータの分析プラットフォームとしてデータレイクを構築している例も少ないながらある。とはいえ前述のような課題もあるからか、成功事例の話はなかなか入ってこない。

 

事例が少ないからと言ってデータレイクという考え方がなくなったわけではない。企業には実際に大量な非構造化データが存在し、それを効率よく扱いたいニーズは強くあるからだ。

 

企業の中で溢れている非構造化データを効率的に扱えるようにすることは、企業のIT予算の多くを占めている「守りのITコスト」を下げることにつながる。企業では、個々のユーザーが普段扱うようなさまざまなデータが増えており、それをやりくりするために部門ごとにNASのファイルサーバーを置いているだろう。さらには、ここ最近企業でもビジネスで利用するための音声、画像、動画などの新たな種類のデータも増えている。これらを活用するためにも、NASなどを置くことに。さらにここに、IoTで生まれるデータをどう保存するのかなんて課題も新たに降ってくると、情報システム部門はかなり頭が痛い。

 

ビッグデータ分析のためにこれら非構造化データを集めるのではなく、マルチワークロードのデータを束ねてシンプルに管理できるようにすると捉える。そんなアプローチも、ここ最近、新たなデータレイクとして登場しているのだ。「トラディッショナルなNASでバラバラに扱っていたものを、データレイクに寄せてマルチプロトコルで扱えるようにするのです」と言うのは、EMCジャパン 執行役員 アイシロン事業本部長の倉橋秀則氏だ。

 

データレイクと言うと、これまでは分析のイメージが強かった。新しいデータレイクの目的は分析だけではない。むしろ分析の前に、マルチのワークロードから生まれるさまざまなデータを束ねその管理を効率化するのが狙いだ。これを実現できれば、守りのITを効率化することになる。それが完成したならば、束ねたデータを分析対象にして攻めのITに転じるのだ。こう説明をすると、この「新たなデータレイク」の価値を理解し、経営層からの予算承認も下りやすいと倉橋氏は説明する。

 

さて、このマルチワークロードを束ねる新たなデータレイクをEMCでは「データレイク 2.0」と位置づけている。その具体的な中身のお話は、次回のコラムで紹介したい。

 

(執筆者:ITジャーナリスト 谷川耕一氏 ブログサイト:http://blogs.itmedia.co.jp/musasabi/

Filter Blog

By date:
By tag: