Find Communities by: Category | Product

1 2 Previous Next

日本語コミュニティ

20 Posts authored by: MihoNaozumi

今年EMCがリリースした VxRail ハイパーコンバージドインフラ は、迅速にvSphere仮想化環境を提供するアプライアンスとして好調なビジネスを続けています。

導入が進むにつれ、既存vSphere環境からのオンラインVM移行など、要件も多様化してきています。

 

VxRailのvCenterデプロイモデルは、内部(Embeded) vCSAや外部(External) vCenterの選択が可能となっていて、SSO(シングルサインオン)構成であればWebClientによる通常のvMotionが利用可能です。

 

外部vCenterで既存クラスタとVxRailクラスタの両方を管理するモデル: External vCenter with SSO

topology-1.jpg

 

 

個々のクラスタの独立性を維持したい場合には、SSOを使用せず、vCenterとPSCを独立した構成になります。

この構成でのvMotionはGUIでは対応していないため、APIを使う必要があります。

 

既存クラスタとVxRailクラスタを分離したモデル: Isolated domains

topology-2.jpg

 

 

APIによるCross vCenter vMotionは情報が少ないようなので、VxRailの実機にて動作検証した結果を以下に紹介します。

VxRailへの移行が目的となりますので、vMotionはCPU(ノード)とStorage両方の移行を前提とします。

 


検証構成: Configuration

 

ソースは既存vSphere 6.0 環境、ターゲット側はVxRail 3.5です。

vSphereとしてクラスタは独立しており、vCenter及びPSCも独立している環境です。

Windows 2008 はvMotionのAPI(スクリプト)をキックするために使用します。


論理構成: Diagram

 

topology-3.jpg

 

VxRailは管理LANやvMotion、VSANネットワークをVLANで分離しているので、必要なネットワークセグメントをIP通信可能にしておきます。

ここでは管理LANとVSANセグメントを繋いでいます。

(ローカルなのでルータは無く、同一セグメント)

 

ネットワーク構成: Network

topology-4.jpg

 

スクリプトの用意: Prepare script

APIをラッピングしたPowerCLIのスクリプト(xMove-VM.ps1)を利用します。


スクリプト入手は以下より。 (引用許可を得ています)

https://github.com/lamw/vghetto-scripts/blob/master/powershell/xMove-VM.ps1

 

スクリプトのauthor (Willian Lam) はVMwareのエンジニアです。

彼はこの構成を “Extended xVC-vMotion (unofficially I am calling it ExVC-vMotion) ” と呼んでいます。

http://www.virtuallyghetto.com/2016/05/automating-cross-vcenter-vmotion-xvc-vmotion-between-the-same-different-sso-domain.html

 

スクリプトはPowerCLIのため、別途PowerCLI をインストールしたWindows環境を用意します。

 

・Windows server 2008 R2       :仮想マシンを使用

・ Windows PowerShell           :サーバ・マネージャの「機能の追加」で「Windows PowerShell」を有効化

・PowerCLI 6.3 Release 1        :VMwareサイトよりDLしてインストール

 


スクリプトの編集: Edit script

移行環境に合わせてスクリプト(xMove-VM.ps1)の変数を編集します。

ここは成否の分かれ目になるので、最も注意する点です。

 

--- 変数部分のみ抜粋 ---

# Variables that must be defined

$vmname = “CentOS3“                                                     <- 移行する仮想マシン名

$sourceVC = “10.32.210.230“                                          <- Source側 vCenter IP address

$sourceVCUsername = administrator@vsphere.local       <- SourcevCenter Username

$sourceVCPassword = “KayndsP0d1!“                            <- SourcevCenter Password

$destVC = "10.32.210.92“                                                <- DestvCenter IP address

$destVCUsername = administrator@vsphere.local           <-  DestvCenter Username

$destVCpassword = " NayndsP0d1!“                               <-  DestvCenter Password

$datastorename = “MARVIN-Virtual-SAN-Datastore-b9e7e96f-de84-4041-b160-2a1189a56732“ <- Destdatastore名(変更不可)

$clustername = "MARVIN-Virtual-SAN-Cluster-b9e7e96f-de84-4041-b160-2a1189a56732“           <- Destcluster名(変更不可)

$vmhostname = “vxrail-03.maynds20f1.local“                  <-  DestESXi host名(ここでは node #3を指定)

$vmnetworkname = “VM Network 1“                                 <-  Destportgroup名(仮想マシンが使用するnetwork)

$switchname = “EVO:RAIL Distributed Switch“                  <-  Destswitch名(vDSの名称)

$switchtype = vds“                                                            <-  Destswitch type(VxRailではvds)

-------

 


実行結果: Result

PowerCLIのコンソール画面化から、スクリプトを実行します。

進捗はProgress barで確認できます。

検証では数GBのCentOSを移行するのに、1分以内で完了しました。

 

PowerCLI-1.png

 

コマンドの戻りで完了を判断します。

エラーがなければ成功しています。

 

--- 成功の例(Completed ---

PowerCLI C:\data\powercli> ./xMove-VM_CentOS3.ps1

Migrating CentOS3 from 10.32.210.230 to 10.32.210.92 ...

詳細: 2016/12/14 16:20:11 Wait-Task Started execution

詳細: 2016/12/14 16:20:11 Wait-Task Finished execution

PowerCLI C:\data\powercli>

-------

 

 

エラーがあればメッセージから、環境やスクリプトを見直します。

以下のエラーは、スクリプトで指定したVMが存在しない場合の例です。

APIの戻りなので、messageは親切ではありませんが、じっくり読むと原因が見えてきます。

 

--- エラーの例(Failed) ---

PowerCLI C:\data\powercli> ./xMove-VM_CentOS3.ps1

Get-VM : 2016/12/14 14:37:39    Get-VM        VM with name 'CentOS3' was not fo

und using the specified filter(s).

発生場所 C:\data\powercli\xMove-VM_CentOS3.ps1:70 文字:26

+     $vm_view = Get-View (Get-VM -Server $sourcevc -Name $vm) -Property Config

.Ha ...

+ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

    + CategoryInfo          : ObjectNotFound: (:) [Get-VM], VimException

    + FullyQualifiedErrorId : Core_OutputHelper_WriteNotFoundError,VMware.VimA

   utomation.ViCore.Cmdlets.Commands.GetVM

-------

 

 

いくつか留意点を上げておきます。

 

  • Cross vCenter vMotion(CPU+Storage)条件を満たすこと(vSphere versionやCPU世代など)
  • 使用したスクリプトは Open source softwareなので Communityサポート
  • 移行VMのポートマッピング(今回はvDS→vDSを使用。vDS → vSSは不可)
  • VxRailの推奨NW構成ではvMotionはVLAN構成のため、ソース側クラスタもVLANに合わせる

 

補足

Cross vCenter Server vMotion requirements in VMware vSphere 6.0 (2106952) 

https://kb.vmware.com/kb/2106952

 


まとめ: Summary

vMotionの条件確認やネットワーク設計ができれば、比較的簡単にスクリプトで仮想マシンのオンライン移行が行えます。

VMware環境に迅速に導入できるハイパーコンバージドインフラ VxRail をぜひ検討ください!

以上、VxRailへのVM移行方法の紹介でした。

 

@MihoNaozumi

今年も EMC World の時期がやって来ました!

 

日本のゴールデンウィーク真っ只中、5/2から米国ラスベガスにて開催です。

EMCのビジョンや戦略をはじめ、新製品やさまざまなアップデートなどの発表が予定されています。

 

 

テーマはMODANAIZE

最新のテクノロジーでITやビジネスを変革(Transform)していこうというものです。

CgrMr_SUYAEDLIm_b.jpg

 

 

 

EMC World 2016専用サイトが開設していますので、主なキーノート登壇者やブレークアウトセッションのタイトルから内容をうかがい知ることができます。

http://www.emcworld.com/

 

 

 

まずは主なキーノートのスピーカーを紹介します。

 

 

今年も大ボスのJoe Tucciは健在です。

Software Defined Data Center(SDDC)、Enterprise Hybrid Cloud(EHC)やAll Flashなどビジョン・戦略を語りつくすでしょう。

Joe.jpg

 

 

 

またDELLとの合併という大きな変換点を控え、Michael Dellも登壇を予定しています。

統合のスケジュールやビジネスの方針等がどうなるのか、大変注目です!

Mdell.jpg

 

 

エンタープライズビジネスをリードすることになっているDavid Goulden、VCEにてコンバージドインフラを率いるChad Sakacからは、製品戦略、アップデート、サプライズ発表など目が離せません。

Gouldnen.jpg    chad.jpg

 

 

 

EMCはポートフォリオの会社ですから、EMC Worldでも製品・ソリューションは多岐にわたります。

ここでは コンバージドインフラに着目 してみましょう。

EMCはコンバージドインフラをより強化するため、前述のChadをVCEのPresidentとしたことは周知のとおりですが、EMC Worldにおいてもコンバージドの強化がありそうです。


「BUY vs BUILD」というキャッチかも分かるとおり、コンバージドインフラはサーバ、ストレージ、ネットワークなどをプリコンフィグしていますので、ビジネスのスピードを早めるため構築の手間を省き、必要なITインフラを迅速に提供できます。 

Traditionalなインフラ構築に比べて、アプリケーションやサービスを4倍以上迅速に展開できるとうたっています。

 

VCE_build_buy-02.jpg

 

 

 

コンバージドポートフォリオの中で注目は、VxRail です。

今年リリースしたばかりのハイパーコンバージドアプライアンスで、VMwareの仮想インフラをすばやく提供し、顧客のビスネススピードを加速します。

2Uのアプライアンスからスモールスタートできるので、導入の敷居が低く扱いやすいと評判のプロダクトです。

EMC Worldでは、間口の広いプロダクトとしての進化と強化が楽しみです!

vxrail_sout.jpg

 

 

 

 

 

つぎは VCE + Pivotal の連携 ソリューションです。

コンバージドインフラの上にPivotalのコンポーネントをスタックし、より上位レイヤをカバーするソリューションとなりそうです。

 

VCE_CF-01b.jpg

 

 

プラットフォーム3のアプリケーションを、より迅速に展開するためのインフラとして、1+1=3 を狙います。

コンセプトは以下の通りですが、続きはEMC Worldで!

VCE_CF-02.jpg

 

 

EMC Worldの開催は5/2から4日間、下記サイトでもリアルタイムな情報を予定していますので、現地に行けない方もお楽しみいただけます。

https://community.emc.com/thread/227556/

 

 

EMC World 2016 ご期待を!

VxRailでも同様にRP4VMsを利用できます。(2016/6 アップデート)


ここではVSPEX BLUE上への RP4VMsRecoverPoint for Virtual Machines)のインストールと設定のポイントを紹介します。

RP4VMs概要とリカバリを紹介した「仮想環境の災害対策 on VSPEX BLUE」の番外編となります。

 

では、VSPEX BLUEにRP4VMsをインストールし、ローカルレプリケーションを構築します。

 

 

 

構成


RP4VMsの3つのコンポートを含んだ、シンプルなローカルレプリケーションの構成図はこちらです。

 

R17-01_local.jpg

 

 

VSPEX BLUEのスタートポイントは4ノード(4台のESXi)ですので、実際には以下のようになります。

vRPAはクラスタでの冗長化が必要ですので、2台で構成しています。 

ESXi(物理ノード)を分けるためDRSルールも設定します。(後述)

 

RP4VMonRail.jpg

 

 

アプライアンス毎に15VMのライセンスがバンドルされています。 15VMまで保護できるということです。

それ以上保護が必要な場合は追加ライセンスの購入が可能です。

 

 

 

インストール


では、インストールを開始します。


環境:

VSPEX BLUE 1アプライアンス(4ノード) ver1.1

・RP4VMs ver4.3

 

参照資料:

インストールガイド:

RecoverPoint for Virtual Machines 4.3 インストールおよび展開ガイド


Adminガイド:

Adiminstrator's Guide


Scale-and-Performanceガイド:

docu59882_RecoverPoint-for-Virtual-Machines-4.3-Scale-and-Performance-Guide


実行モジュール・キット:

RecoverPoint for Virtual Machines 4.3 Installation Kit

(OVF、スプリッター、プラグインなどのキット)


全てのドキュメントと実行ファイルは support.emc.com からダウンロードできます。

 

インストールガイドに従って、下記のステップで進めます。

ではポイントの解説です。

 

Install_01.jpg

 

「Connect vRPA Clusters」はリモートレプリケーションの時に、

「Register vCenter Servers」は複数のvCenterサーバがある時に実施する項目です。

今回は不要です。

 


スプリッターのインストール(Install Splitter)

 

RP4VMsのSplitterを全てのESXiにインストールします。

SplitterはVIB(VMware Infrastructure Bundle)になっていて、ESXiにssh接続してコマンドでインストールです。

 

コマンド:

# esxcli software vib install -v /<full_path>/<vib_ name>--no-sig-check

 

ネットワーク設定(Configure Networking)

 

vRPAで使用するiSCSI software adapter(イニシエータ)をESXiに作成します。

IPアドレスは4台のESXiの10Gbポート(2ポート)それぞれに必要です。

cr-033b_iSCSI_Adapter2.gif

 


vRPAの展開(Create vRPAs)

 

クラスター化するため2台のvRPAを作成します。

VDPの時と同様に、RP4VMsのOVAファイルをVSPEX BLUE上にデプロイします。

 

RP2-003b_ova.gif

 

ウィザードに従い設定していきます。

 

vRPAの使用するリソースを3つのプロファイルから選択します。

今回はテスト環境なので「2x CPU/4GB RAM」を選択します。

 

RP2-014b_ovaSize.JPG.jpg

 

 

プロファイルによって必要リソースとサポートモードが変わってきます。

 

RP18-profile.jpg

 

 

プロファイルと転送性能は下記のガイドを参考にします。(IOPSとスループットを抜粋)

docu59882_RecoverPoint-for-Virtual-Machines-4.3-Scale-and-Performance-Guide.pdf

 

vRPA_sizing-1.jpg

 

vRPA_sizing-2.jpg

 

 

vRPA毎に4つのIPアドレスが必要です。

インストールガイドのAppendix AにIPアドレス表があるので、

事前にIPアドレスは決めておくと便利です。

 

IP_sheet.jpg

 

2台のvRPAをデプロイした後、冗長化のため異なるESXiで動作するようDRSルールを設定しておきます。

 

RP2-047b_DRSset.JPG.jpg

 



vRPAクラスタ設定(Create vRPA Clusters)

 

vRPAクラスタの構築はDeployment Manager(構築用の専用アプリケーション)を使用します。

 

RP03-001b_DM.JPG.jpg

 


ウィザードに従い進めていきます。

これまでの設定に不備があると、修正を促されます。

私はESXi(ノード#4)にスプリッターを入れ忘れていたので、下記指摘されました。。。

RP03-053b_NoSplitter.JPG.jpg

 

 

ステップはやや多いですが、全てパスするまで進めます。

 

RP03-058b_deploy.gif


 


以上でインストールは完了です!

 

「Connect vRPA Clusters」と「Register vCenter Servers」のステップは、今回の構成(ローカル、vCenter 1台)では不要です。

 

 


レプリケーション設定

 

保護対象VMのレプリケーションを作成します。

操作はVM管理者には使い慣れたvSphere Web Clientから行い、ウィザードにより直感的に操作が可能です。 

またインストールフェーズに比べ、出戻りが簡単なのでラフに進められます。(デモ環境ということもあり)

 

ここから先は「Adiminstrator's Guide」を参考にします。

 

レプリケーション元となるVMのメニューから「RP4VMs > 保護」を選択します。

(ここでの保護VMRedHat7)

 

RP0212-088b_RP_webClient.gif

 

ウィザードに従いレプリケーションを設定します。

ジャーナルサイズなど、まずは初期値で進めます。


「RPO = 25秒」という、強気の値が初期値になっています。

VMwareネイティブの「vSphere Replication」ではRPO 15分からなので、RP4VMsの大きなメリットとなります。

(ver6.1からは5分)

 

RP0212-098b_protect.gif

 

 

設定を終えると、初期コピーが始まります。

RP0212-103b_7percent.JPG.jpg

 

 

初期コピーが終わると、レプリケーション完了です。

非常に簡単にレプリケーションが設定できることが分かります。

 

 

ソース(RedHat-7)、ターゲット(RedHat-7.copy.recoverpoint)のVMは「パワーオン」で、差分転送の状態となっています。

 

RP17-028b_VMs.JPG.jpg

 

 

 

ターゲット側は「パワーオン」になっていますが、このVMはvRPAが使用するプレースフォルダであり、通常のアクセスは不可になっています。

VMの名前が「xxxx.copy.recoverpoint」となっている事で判断できます。

 

RP0212-147b_monitor.gif

 


以上で、インストールとレプリケーション設定は完了です!

 

一度RP4VMsをインストールしてしまえば、VMの保護設定はvSphere Web Clientよりとても簡単に行えることが分かりました。

リカバリの手順はこちらの記事を参照ください。

VxRailでも同様に RecoverPoint for Virtual Machinesを利用できます。(2016/6 アップデート)

 

CloudArrayによるクラウド連携、VDP+DDによるバックアップと続いた、VSPEX BLUEのお得なバンドル機能紹介も最終回となりました。

今回は災害対策やCDPを実現するRecoverPoint for Virtual Machines (以下RP4VMs)を紹介します。

 

RP4VM_VB-01.png

 

 

 

RecoverPoint for Virtual Machinesとは?

 

RecoverPoint for Virtual Machines(以下RP4VMs)は、

vSphere環境に特化したEMCのレプリケーション・ソフトウェア製品です。


高度なレプリケーションを実現するRecoverPoint(以下RP)で培われたテクノロジーを、vSphere環境に実装しています。


通常のRecoverPointはLUN単位のレプリケーションですが、RP4VMsは仮想マシン単位となり、ストレージ構成に縛られません。 

つまり仮想マシンがVSAN、VNX、XtremIO等どこにあってもレプリケーションが可能です。



RP0218_overview.jpg

 

 

 

 

特長は以下の通りです。

  • 仮想マシン単位の保護
  • vCenterプラグインによる統合管理
  • 圧縮/重複排除によるWANへの負荷低減
  • ジャーナルによる任意時点へのリカバリーをサポート
  • ローカル/リモート及び同期/非同期

 

主なコンポーネントと役割は以下になります。(下図の赤い部分)

  1. ESXi スプリッター               :VMのI/Oを複製しvRPAへ転送
  2. Virtual Appliances (vRPAs)      : 重複排除/圧縮やジャーナル等のレプリカ処理
  3. vCenter プラグイン         :Web Client シームレスな管理インターフェースを提供

 

 

ローカル構成

R17-01_local.jpg

 


リモート構成

R17-01_remote.jpg

 

 

 

VSPEX BLUEは15VM分のRP4VMsライセンスをバンドルしているので、この高度なVM保護機能を利用することが出来ます。

(アプライアンス毎に15VMで、追加購入も可能

 

 

VSPEX BLUEに構築したRP4VMsのローカルレプリケーションを使って、どのようにリカバリ処理ができるか見ていきます。

(インストール手順はこちらの記事にあります)

 


環境:

VSPEX BLUE 1アプライアンス(4ノード) ver1.1

・RP4VMs ver4.3

 



レプリケーション構成

 

LiunxのVMをRP4VMsにてローカルにレプリケーションしています。

VMは「パワーオン」で差分転送の状態です。

 

ソース:RedHat-7

ターゲット:RedHat-7.copy.recoverpoint

 

RP17-028b_VMs.JPG.jpg

 

操作はVM管理者には使い慣れたvSphere Web Clientから行い、ウィザード等により直感的に操作が可能です。

 

ターゲット側は「パワーオン」になっていますが、このVMはvRPAが使用するプレースフォルダであり、通常のアクセスは不可になっています。

VMの名前が「xxxx.copy.recoverpoint」となっている事で判断できます。

 

VMの「管理メニュー > RecoverPoint for VMs」の画面にて、レプリケーションの状態確認とリカバリ等のアクションが可能です。

RP0212-147b_monitor.JPG.jpg

 



リカバリ

 

リカバリのし易さは災害対策やCDPでの重要なポイントとなります。

RP4VMsには使いやすい3つのリカバリのアクションがあります。

 

「本番のリカバリ」    :本番の論理障害時のリカバリ

「フェイルオーバー」   :本番サイト障害時等のフェイルオーバー

「コピーのテスト」    :一時的な任意時点のVMリカバリ

 

RP18-3_recover.jpg



使い勝手が良いのは「コピーのテスト」です。

一時的にリカバリのイメージリストからVMを起動することで、OSやAPP状態を確認できます。

そのVMが適切な状態であれば、「本番のリカバリ」や「フェイルオーバー」へ適用すことができます。


リカバリするイメージはリストから任意のポイントを選択できます。

直感的なウィザードでやさしいです。

RP17-040b_copytest.JPG.jpg

 


ウィザードを完了すると、選択したVMのイメージにアクセスできるようになります。

VMの名前が「xxxx.copy」となっている事で識別できます。

 

RP-19_copyVM.jpg

 

 

コンソール等でアクセスして、OSやAPPの状態を確認します。

 

RP17-067b_RH7.JPG.jpg

 

 

OKであれば、本番のリカバリ」や「フェイルオーバー」へ適用します。

「現在のイメージ」を選択することで、テストしたイメージを指定してリカバリできます。

RP17-070b_recover.JPG.jpg

 

 

リカバリは短時間で完了します。

RP17-074c.JPG.jpg

 


また運用中に、ブックマークを入れることができるので、VM上でアプリに変更を加える前などに明示的にポイントインタイムを保持できます。

問題があればブックマークを指定してリカバリすることもできます。

 

RP17-063b_points.JPG.jpg

 

 



まとめ


VSPEX BLUE上に構築されたRP4VMsにて、vSphere Web Clientの操作でレプリケーションやリカバリを確認しました。


任意のイメージで起動を確認した上でリストア出来ますので、万一の際の容易で柔軟なリカバリは大きなメリットになります。

 

VSPEX BLUEでの利用はもちろん、通常のvSphere環境へのRP4VMsレプリケーションも是非検討ください!


参照資料

Adminガイド:

Adiminstrator's Guide


VxRailでも同様にVDPとDataDomainの連携か可能です。(2016/6 アップデート)

 

前回はVSPEX BLUEのクラウド連携を紹介しました。

今回紹介する2つめの機能強化はバックアップです。

 

VDP_DL-007b.JPG.jpg

 

 

VSPEX BLUEはvSphere Data Protection(以下VDP)ライセンスをバンドルしているので、無償でVDPバックアップを使用することができます。

バックアップ・リストア、スケジューリングなど、vSphere Web Clientネイティブなインターフェースで操作でき大変便利です。

 

 

さらにEMCは業界シェアNo1のバックアップ専用アプライアンスであるData Domain(以下DD)を持っているため、

VSPEX BLUEと組合わせてより効率的なバックアップ環境を構築可能です。

 

EMCは、2015年の「Magic Quadrant for Deduplication Backup Target Appliances」において、a Leaderに位置付けられています。

DD_MagicQuadrant-2015b.jpg

 

出典:

Gartner “Magic Quadrant for Deduplication Backup Target Appliances” Pushan Rinnen et al., 25 September 2015

========================================================================================

本図表は、ガートナー・リサーチの発行物の一部であり、発行物全体のコンテクストにおいてご覧いただく必要があります。ガートナーの発行物は、リクエスト

によりEMC から提供することが可能です。ガートナーは、ガートナー・リサーチの発行物に掲載された特定のベンダー、製品またはサービスを推奨するもの

ではありません。また、最高のレーティング又はその他の評価を得たベンダーのみを選択するように助言するものではありません。

ガートナー・リサーチの発行物は、ガートナー・リサーチの見解を表したものであり、事実を表現したものではありません。ガートナーは、明示または黙示を問わず、

本リサーチの商品性や特定目的への適合性を含め、一切の保証を行うものではありません。

========================================================================================

 

 

バックアップのエンジンとしてVDPを使用し、バックアップ先としてData Domainを利用することが出来ます。

(DD連携に必要であったVDPAライセンスが、2015年3月にVDP6.0に機能統合)

 

 

DD_VBlue-01.jpg

 

 

 

VDPバックアップ先をData DomainにすることでVSAN領域を圧迫することなく、さらにバックアップ時のVSANへのバーストIOも軽減することが可能です。

またVDP+DDの重複排除により、バックアップデータの大幅な削減も期待できます。


Data Domainを使わない場合は、VSPEX BLUEのVSAN領域(1アプライアンスでの実効容量約6TB)をVM領域とバックアップ領域で共有することになります。(この場合はVDP容量の上限は8TB

 

 

 

 

では、VSPEX BLUEとData Domainでの動作検証内容を紹介します。

 

 

 

 

1. VDPインストール

 

 

VMware社のサイトよりダウンロード した VDPのOVAファイルをVSPEX BLUE上にデプロイします。

(今回はVDP6.1 を使用)

 

OVAのデプロイは通常の手順と変わりませんが、VDP固有の情報は「VDP Admin Guide」を参照ください。

 

参照資料:VDP Admin Guide

http://pubs.vmware.com/vsphere-60/topic/com.vmware.ICbase/PDF/vmware-data-protection-administration-guide-61.pdf

 

 

VDP-123b.JPG.jpg

 

 

 

デプロイしたVDPの仮想マシンの電源ONし、下記URLより構成ユーティリティを起動します。

https://「VDPのIPアドレス」:8543/vdp-configure/

 

 

例:

https://10.32.210.89:8543/vdp-configure/

 

 

初期値:ユーザ名はroot、パスワードは changeme

 

VDP-169b.JPG.jpg

 

 

ウィザードに従い、vCenter登録やデバイス割り当て(バックアップ先)などを設定します。

 

 

VDP-170b.JPG.jpg

 

 

 

DDをバックアップ先に登録する前提なので、VDPのローカル容量は最小の0.5TBで設定します。

(上限値は8TB)

 

 

VDP-179b.JPG.jpg

 

 

 

ウィザード完了後、VDP内部のストレージ領域作成のため、少々時間を要します。(数時間)

VDP構築が完了すると、vSphere Web ClientにVDPのメニューが追加されます。

 

VDP-226b.JPG.jpg

 

 

設定した0.5TBの領域も認識しています。

 

 

VDP-228b.JPG.jpg

 

 

 

 

 

ここまで基本的なVDP環境が出来たので、バックアップジョブを登録すれば、仮想マシンのスケジュールバックアップが可能となります。

 

 

ジョブ登録は、ウィザードに従いバックアップソースなどを指定します。

 

 

VDP-236b.JPG.jpg

 

 

 

スケジュールも簡単な画面で設定可能です。

 

VDPはEMCのAvamarエンジンを使っているため、フルや差分バックアップの設定はなく、

重複排除を利用した永久差分のフルバックアップを毎回実行します。

(毎回フルバックアップなんだけど重複排除のおかげで、変更部分しか転送しないのがミソ)

 

 

VDP-238b.JPG.jpg

 

 

 

 

 

バックアップジョブ登録ができれば、スケジュールに従い自動でバックアップが行われます。

これでVDPの基本設定は完了です。

 

 

 

 

2. Data Domainの追加

 

 

ここからが本題のData Domainに関する設定です。

上記でのVDPのバックアップ先は「VDPのローカル領域」つまりVSPEX BLUEのVSAN領域になります。

バックアップ先としてData Domainを追加し、ジョブ毎にバックアップ先を指定できるようにすることがゴールです。

 

ここではモデルDD2200-14T (OS5.5)を使います。

 

参考資料:

前述、VDP Admin Guideの”Data Domain Integration”セクション

 

 

 

VDPの構成ユーティリティを再度起動し、Data Domainを追加します。

 

 

 

X-031b.JPG.jpg

 

 

 

 

DD側の情報を設定します。

 

 

注意するポイントは以下の通り。

  • Data DomainにはDD Boostライセンスが必要
  • DD Boostのアカウントはadministrator権限が必要
  • DDをFQDNにてDNS登録が必要

 

X-025b.jpg

 

 

「チェックポイントコピーの有効化」をチェックしておくとVDPが壊れても、管理情報をDDからリストアすることが可能です。 

(万一VDPが壊れたときに、DDにあるバックアップデータをリストア可能にします)

 

 

 

SNMP設定も必須です。

VDPはSNMPでDDから容量情報等を取得します。

 

 

 

X-002b.JPG.jpg

 

 

 

 

VDPへのDD追加を完了すると、WebClientのVDPメニューにDDが見えてきます。

下図では6.9TBの容量を持つ、ホスト名「dd2200-1.maynds20f1.local」が確認できます。

 

 

 

Z-003b.JPG.jpg

 

 

 

バックアップジョブの作成ウィザードに「ディスティネーション」が増えて、バックアップ先として

Data Domainが選択できるようになっています。

 

 

 

X-034b.JPG.jpg

 

 

 

 

VDPのバックアップターゲットとして、優れた重複排除機能を持つData Domainを簡単に利用できることを確認しました。

以上でData Domain 追加は完了です!

 

 

Data Domainは優れた重複排除機能が特長です。

実際にDDの管理画面にてバックアップデータの重複排除率を確認してみます。

 

 

ここでは初回バックアップで12倍、その後のバックアップを含めると30倍以上の削減効率となっていることが分かります。

バックアップ対象はテスト環境の仮想マシンなので変更量が少ないとしても、可変長ブロックの重複排除が効果的であることが分かります。

 

VDP_DL-013c.jpg

 

以上、Data DomainによるVSPEX BLUEの効率的な仮想環境バックアップの紹介でした。

先日開催された、OpenStack Summit TokyoにてRandy Bias(EMC Vice PresidentでOpenStackのBoardメンバー)が、CephとScaleIOのストレージ性能比較デモを行ない、ScaleIO優れたIO性能を紹介しました。


日本語通訳なしの英語セッションでしたので、ここでポイントを解説します。


Randy_b.jpg


動画はこちら

EMC- Battle of the Titans: Real-time Demonstration of Ceph vs. ScaleIO Performance for Block Storage - YouTube



1.アーキテクチャ


多目的か、専用か?


多目的ツールは様々な用途に使え便利ですが、用途が決まっている場合には専用ツールが有利です。

ネジを回すにはドライバーを使うのが一般的なように。


 

Ceph-testing-13-RLB-edits.002.jpg




Cephは多目的ストレージ、ScaleIOは専用ストレージに例えています。

ScaleIOはブロック専用ストレージなので、Tier1のシステム等の性能(IOPS)を重視する用途に有利となります。

CephはOpenStackにおいて実績もあり、多目的ストレージの選択肢となります。


ファイルストレージは汎用的、オブジェクトはアーカイブや大容量といった特性を考えると、大規模なOpenStack環境ではワークロードに合わせた専用ストレージを使い分けるという考え方です。


 

Tier123_Storage.jpg



Cephとは


OpenStackのブロックストレージにおいてNo1のシェアとなっているオープンソースのCeph。

分散型のオブジェクト・ストアをベースに、ブロック/ファイル/オブジェクトのインターフェースを持つ多目的(マルチプロトコル)ストレージです。


RADOS(reliable autonomic distributed object store)という分散オブジェクトストアのコアコンポーネント上に、各プロトコル(Block,File,Object)用のモジュールを組合わせた構造です。

今回はブロックストレージの比較なので、RBD(RADOS Block Device)を用いています。

 

Ceph_RADOS.jpg

 

 


ScaleIOとは


ScaleIOはEMCのブロック専用ストレージで、スケールアウト型のソフトウェア・デファインド・ストレージです。

Cephと同じく分散型のソフトウェアストレージですがScaleIOはブロック専用です。


Cinderをサポートし、コモディディ・ハードウェアでスケールアウトしますので、OpenStack環境との親和性も高いです。


クライアント・コンポーネントのSDC(ScaleIO Data Client)とサーバ・コンポーネントのSDS(ScaleIO Data Server)によるシンプルな構成です。

サーバのローカルストレージはRAWデバイス・マウントのため、Filesystemレイヤが不要となっています。


 

ScaleIO_Architecture.jpg

 

 


アーキテクチャの違い

 

下図はデータ書込み時のフローです。(左がCeph、右がScaleIO)

Cephに存在する赤いブロックは、シンプルなブロックストレージのScaleIOにはありません。

 

  • ブロックデータをオブジェクトデータにマッピング
  • LinuxのFilesystemレイヤへの書込み


このアーキテクチャの違いが性能の差として現れることになります。

 


Ceph_SIO_architect.jpg

 



2. デモ構成


Apples to Apples の同じ条件で比較するため、サーバとクライアントの構成と台数を同じにしています。

デモ環境はAWS上に構築しています。


クライアント:


  • 同一クライアントからCephとScaleIOのストレージをマウント
  • 5台のインスタンスにCeph(RBD)とScaleIO(SDC)の両方をインストール
  • インスタンスタイプはAWS c4 large(Compute Optimized)
  • ベンチマークはfioを使用


サーバ:


  • サーバはCephとScaleIOでそれぞれ5台のインスタンスを使用
  • インスタンスには2つのEBS(Elastic Block Store)デバイスをマウント
  • インスタンスタイプはAWS m4 large(General Purpose)
  • EBSは3000IOPSのバースト性能



Test_Config-Ceph_SIO.jpg


 


テスト条件:


  • 4KB、ランダム、Read/Write比50%、32キュー


サーバ側の構成を変えて3パターンで比較しています。


  • バトル1 5台のサーバ、2デバイス/サーバ (下図はバトル1)
  • バトル2 上記から4デバイス/サーバにスケールアップ
  • バトル3 上記から10台のサーバにスケールアウト


 

Condition-Ceph_SIO.jpg

 

 


3. テスト結果


バトル1(5サーバ、2デバイス)の結果は、ScaleIOCeph約3倍の20000IOPSとなっています。

但し、これは Max Backend(EBS性能)の制限値30000IOPS(3000IOPS * 10 = 30000)に到達しているため、ScaleIOの限界ではありません。

表中の ScaleIO SDS Backend の30000IOPSとは、ScaleIO書込みの2面ミラーで20000IOPSが書込み、読込の10000IOPSと合わせた30000IOPSでEBSを100%使い切っていることが分かります。


バトル2、3では、ScaleIOは40000IOPSから80000IOPSと、ほぼリニアに性能向上しています。

Cephとの性能差はさらに広がって5.6倍、6.6倍となっています。

但し、ここでもEBSを使い切っているため、ScaleIOはまだ余力があることを意味しています。


OpenStack環境で数十、数百ノードへの拡張を想定すると、このスケールアウト性は強力な武器となります。


 

Result-Ceph_SIO_b.jpg

 

 


4. まとめ


EMCはポートフォリオの会社です。 ワークロードに合わせてストレージを選択するという戦略を取っています。

プロダクトの優劣ではなく特性を理解し、使い分けることが重要です。


OpenStack環境で、Tier1アプリや大規模な環境で性能(IOPS)を重視するならScaleIOです!

(ScaleIOはLinuxだけでなく、WindowsやESXiもサポートするためOpenStack以外の用途も広がりますが、今回は省略)


また、ScaleIOは自由に試すことができます

Free and Friction less」という表現をしていますが、無料でしかもアカウント登録やメールアドレス不要で利用可能です。


ダウンロードはこちら

https://www.emc.com/products-solutions/trial-software-download/scaleio.htm


ScaleIOをぜひお試しください!


1週間後に迫ったEMC Forum 2015

今年のテーマはEMC Worldから継承した 「REDEFINE.NEXT」 です。

 

EMCForum_REDEFINE.jpg

 

EMCジャパン最大級のイベントであるとともに、世界18か所で開催されるEMCの包括的なイベントです。

基調講演、パネルディスカッションの他、24のセッションを予定しています。

 

 

登録やアジェンダはこちら

http://japan.emc.com/forum2015/f1.htm

 

 

ここではディープ?な切り口で、楽しみ方を紹介します。

 

 

パネルディスカッションを仕切るのは?

 

 

パネルディスカッションのモデレーターはEMCジャパン 大塚社長です。

昨年末に就任した大塚社長ですが、人となりを知る機会は少ないと思います。

 

Otsuka1-EMC All Hands_b.JPG.jpg

 

 

社内イベントでは仕切り上手な一面をのぞかせていましたが、

今回も本人が手をあげてモデレーターになったとか?!

 

Exectives-All Hands2015Q2-b.png

 

 

パネルディスカッションでは、ゲストとの掛け合いやアドリブに期待です!

社長のパーソナリティーを知る機会にしてください。

 

 

 

ゲストスピーカー!

 

 

今回はセッションのスピーカーとしてEMCコーポレートから多くのゲストを招いています。

 

Speakers.jpg

 

 

その中で、Data Lake Hadoop エバンジェリストのRyan Paterson(ライアン パターソン) に注目です!

 

Ryan-2.JPG.jpg

 

 

Twitterのアカウント名は「@BigDataRyan

BigDataと冠を付けるほどで、ビッグデータ業界では有名人です。その活躍もSNSで伺うことができます。

 

 

Hadoop生みの親であるDoug Cutting(ダグ・カッティング)とも親交が深いです。

今年のHadoop Worldでの合同インタビュー動画はこちら

https://www.youtube.com/watch?v=1WnGyXRanHU

 

 

 

 

前回の来日ではホワイトボードいっぱいに作品(Hodoopディストリビューター相関図)を描き、分かり易い説明は好評でした。

 

IMG_0873c.JPG.jpg

 

 

 

 

日本酒 が大好きなナイスガイ

会場でRyanを見かけたら一声お掛け下さい!

 

 

Internal1-b.jpeg.jpg

 

 

 

ユーザーエクスペリエンス

 

 

情報を発信するだけではなく、ユーザーエクスペリエンス(価値ある体験)を実現するためのvLabコーナーも用意されています。

定番ストレージをはじめ、ソリューション系のEHC、Data Lake、Backup to Cloud、OpenStackなどアーキテクチャーや動作を理解する良いチャンスです。

vLabは当日予約の先着順です。 サポートのスタッフもいますので、技術的な疑問も即解決というメリットがあります。

 

 

ピックアップ 1

 

 

前述のRyanに関連するHadoop系のvLabはこちら

  • The Isilon Data Lake with Spark and Hbase

 

 

IsilonをHadoopのデータ保存先とするだけでなく、SparkでのAnalyzeやHDFSでのHBase連携など、より現実的(複雑)なシナリオです。

難易度は高いですが、深い技術に触れたい方にはお勧めです。

 

 

vLab-Hadoop_HBase_Spark_b.jpg

 

 

 

ピックアップ2

 

オープンソース(OpenStack)のvLabはこちら

  • EMC Storage Solution with OpenStack

 

 

OpenStackによるストレージのデプロイと仮想インスタンスへのマウントのほか、注目のソフトウェアストレージ ScaleIOの構築も体験できます。

 

vlab_openstack-b.jpg

 

英語は苦手という方には、日本語ガイドのある XtremIO Backup to Cloud もお勧めです。

 

 

 

 

ランチや懇親会もあるので1日スケジュールを取って来場ください。


お待ちしています!

VxRailでも同様にCloudArrayを利用できます。(2016/6 アップデート)

 

前回はVSPEX BLUEの導入を紹介しました。

今回は仮想アプライアンスによる機能追加の一つである、クラウド連携を紹介します。

VSPEX BLUEにはストレージ領域を拡張する方法が3つあります。

 

  • アプライアンスの増設
  • VNXe等でのストレージ増設
  • クラウドゲートウェイ

 

3つ目のクラウドゲートウェイを実現するのがCloudArrayです。

CloudArrayは物理アプライアンスまたは仮想アプライアンス(Virtual Edition)として販売している製品です。

VSPEX BLUEにはこのCloudArray/VE(Virtual Edition) のライセンスがバンドルされていますので、AWS等のパブリッククラウドへデータを保存することが可能です。(アプライアンスあたり10TBのライセンスが付属)

 

では実際にVSPEX BLUE上にCloudArrayを展開し、クラウド連携を行ってみます。

一般的なCloudArray導入手順はこちらでカバーしていますので、VSPEX BLUEに特化した差分を解説します。

 

 

  • ダウンロード

 

VSPEX BLUEマーケットからCloudArrayを選択し、専用ポータルからOVAファイルをダウンロードします。

 

図:VSPEX BLUEマーケット

V0907-004b.jpg

 

 

ColudArrayポータルの初回アクセス時は、アカウントを作成します。

 

V0907-005b.jpg

 

 

ダウンロードはESX版を選択します。 

PSTN(BLUEシリアルナンバー)を求められるので、VSPEX BLUEマネージャーからコピペします。

 

V0907-001b.jpg

 

 

PSTN(シリアルナンバー)はVSPEX BLUEマネージャーで確認します。

V0907-006b.jpg

 

 

 

  • OVF展開と初期設定

 

OVAをダウンロードしたら、指示通りにVSPEX BLUEに展開します。

V0907-011b.jpg

 

OVFテンプレートのデプロイはWebクライアントから行います。

V0907-017b.jpg

 

 

ここからCloudArrayの管理コンソールで初期設定になります。 注意点のみ解説します。

初期設定にてLicense Tag(ライセンス)を入力します。

 

V0907-045b.jpg

 

 

ライセンスは先ほどアカウントを作成したClaudArrayポータルで確認できます。

V0907-044b.jpg

 

 

Configuration TypeはProductionを選択します。

 

V0907-054b.jpg

 

 

キャッシュを設定するため、仮想マシンにVSAN領域からディスクを割り当てます。
ここでは10GBにしています。(合計で1TBまでキャッシュを設定できます)

 

V0907-069b.jpg

 

 

CloudArrayのキャッシュを構成します。(先ほどの10GBですがオーバーヘッドがあり9GBとなります)

VSPEX BLUEにバンドルの10TB分のライセンスとは、CloudArrayのキャッシュを1TBまで設定できる事を指しています。

一般的な設定ではCloudArrayで設定するストレージ容量の10%をキャッシュに割り当てるため、結果として10TB分のクラウドストレージとなります。

 

 

V0907-075b.jpg

 

 

 

  • クラウドでの容量拡張

 

クラウドプロバイダーとしてAWSを登録し、CIFSストレージのプロビジョン(100GB)を行い、VSPEX BLUEへの展開は完了します。

 

SDC-AWS_config.jpg

 

BLUE上に起動している仮想マシン(Windows)から共有をマウントすることで、約100GBの領域を拡張しています。

この仮想マシンはサイズ「中」で作成しているので、元々はローカル60GB(Cドライブ)の容量となっています。

アプリケーションやバックアップに使う領域として、CloudArrayによりネットワークドライブ100GBを追加しています。

 

925-119b.jpg

 

 

 

  • スナップショット

 

CloudArrayはスナップショットも実装しています。

CIFS共有にスナップショットを取得し、共有してみます。

 

925-120b.jpg

 

 

 

スナップショットはExpose(共有)設定を行うことで通常のCIFS共有フォルダとしてアクセスできます。

925-112b.jpg

 

 

スケジュール設定もGUIで容易に行えます。

 

925-115c.jpg

 

 

 

CloudArrayにより簡単にクラウドと連携し、VSPEX BLUEの容量拡張が可能となることが分かりました。

企業ユース向けにリリースしている製品であるCloudArrayの無償バンドルは大変お得感があります。

ぜひ有効に活用ください!

VSPEX BLUE がSDC(*)に来たので設置や初期導入のポイントを紹介します。

 

ecn_home_blue.PNG.png

 

VSPEX BLUEはEMC初のハイパーコンバージドインフラです。 詳細はこちら
*SDCとはソリューション・デモ・センターの略でEMCジャパン新宿オフィスにあります。

 

 

1. 設置

 

導入したモデルは128GBメモリのSFP+Twinaxモデル、EVO:Railバージョンは1.2.1です。
ToRスイッチはブロケード社OEMの Connectrix VDX6740Bです。
スイッチは可用性を高めるために2台構成も可能ですが、デモ環境のためコスト重視の1台構成となっています。

 

19インチラックに2UのVSPEX BLUEアプライアンスとスイッチを搭載します。
添付のレールキットは扱いやすく簡単です。

 

Evernote-20150914-210542.jpg

 

 

 

ケーブリングは下記の接続をします。

 

・ToRスイッチと4台のノード間をTwinaxケーブルで接続(2本 x 4台の8本 黒ケーブル) 
・上位のコアスイッチへuplink接続 (黄ケーブル)
・電源ケーブル接続(2本)

 

 

Evernote-20150914-210625.jpg

 

 

「LAN接続構成図」
VB-Blog-02.jpg

 

 

 

2. 初期セットアップ

 

VSPEX BLUEの初期セットアップ・ウィザードによりVSANやvMotionを構成するため、事前にToRスイッチにVLANやマルチキャスト(IGMP Snooping/Querier)などの設定を行っておきます。

 

ネットワークの詳細はこちら VSPEX_BLUE_Networking_Guide.pdf

 

VPSEX BLUEの電源はノード4からノード1の順で30秒以上間隔を空けて投入します。(資料により秒数に差があるが30秒が確実)
フロントにノード毎の電源ボタンがあります。
初期設定用のPCから既定のIPアドレス(192.168.10.200:7443)にブラウザで接続すると、初期設定のウィザードが開始します。

 

 

VB1-006b.JPG.jpg

 

 

ウィザードなので正しく入力すれば自動で構成を行ってくれます。
ポイントは環境の確認(IPアドレスやVLAN ID等)とToRスイッチ設定です。
事前チェックリストはこちら

 

チェックリストの内容に従い入力を進め、検証プロセスが完了すると「アプライアンスの構築」を開始できます。

 

VB1-026.JPG.jpg

 

 

 

途中で管理IPアドレスが変更されるので、設定用PCはセカンダリIPを振っておく必要があります。

 

VB1-028.JPG.jpg

 

 

約15分で「構築」は完了です!

 

               「50%」                                  「完了」
VB1-044b.jpg

 

 

EVO:Rail Engine(GUI)にログオンし、まずはライセンスの投入と日本語化を行います。

 

「ライセンス投入の前後」

 

VB1-107b.JPG.jpg

 

 

GUIの言語はいつでも変更可能です。 ここでは日本語に変更。

 

VB1-056b.jpg

 

 

これで仮想マシンをデプロイすることが可能になります。

 

仮想マシンの作成もウィザードにより至って簡単です。

選択項目は以下の通り。

 

・ゲストOS
・仮想マシンサイズ
・VLANの指定
・セキュリティーポリシー

 

仮想マシンサイズは 大/中/小 で定義されているため、オペレーターは難しい判断を必要としません。

 

VB0914-04b.jpg

 

 

 

3. 構成の確認

 

VSPEX BLUEはvSphere Web Clientを使った詳細なオペレーションも可能になっています。
ここでは自動構成されるDRS,HA,VSANを確認しています。

 

VB1-026b.jpg
VB1-999b.jpg

 

 

 

VSPEX BLUEは共有ストレージとしてVSANを使用していることがアーキテクチャ上のポイントです。
このためVLANによるトラフィックの分離及び10GbpsのToRスイッチが推奨になっています。

 

ここでは推奨に従い、4つのVLAN(VSAN,vMotion,管理LAN,仮想マシン)を1台のスイッチに構成しています。
VSANとvMotionはvSphereクラスタ内で閉じているため、IPアドレスはチェックリストのサンプルのまま使っています。
管理と仮想マシンVLANは実際のネットワーク環境に合わせてIPアドレスを設定しています。

 

「導入VLAN構成」

 

VB-Blog-01b.jpg

 

 

「補足」
今回導入したVSPEX BLUEは初期セットアップ以前にイベント等で使用したこともあり、初期セットアップでトラブルに遭遇しました。
繰り返すことがないように共有しておきます。

 

・電源投入から60日以内に初期セットアップを完了して下さい。(vCenterが評価ライセンス切れとなります)
・ノードはスロットを入れ替えないよう注意下さい。(ノード2と3の入替など。技術者は分解したくなるものです。。)

 

 

 

4. まとめ

 

VSPEX BLUEはVSANというサーバーSANのテクノロジーを使ったハイパーコンバージドインフラです。
煩雑なサーバ、ストレージ、仮想環境のセットアップを簡単に行うことができます。
但し、スイッチやVLAN設計など事前準備は必須です。

 

初期セットアップを行ってしまえば、あとは専用のGUIによる仮想マシン展開をクラウド的に行うことが可能になります。
ITインフラの管理工数を削減し、ビジネスに直結するアプリケーション開発にシフトすることができるようになります。

 

今回はVSPEX BLUEの初期セットアップまでを紹介しました。
VSPEX BLUEは仮想アプライアンスによる機能追加という特長を持っていますので、次回取り上げる予定です。

 

お楽しみに!

前回はECSなどの無償版ソフトウェア提供開始により、EMC製品を使うハードルが下がり、検証など容易に実施できるようになってきたことを紹介しました。

 

 

無償版ソフトウェアやオープンソースソフトウェア(CoprHD等)は、通常の保守サポートの契約対象ではなく、コミュニティーサポートとなっています。

 

 

今回は、日本でのコミュニティーサポートの状況紹介と将来性を考えてみます。

 

 

コミュニティーサポートとは、EMCコミュニティーネットワーク(ECN)でのQ&Aや情報提供をベースとしたサポートです。

 

 

ECNサイトはこちら:

https://community.emc.com/community/support

 

 

ECNを覗いてみると、プロダクトごとにサブスペースを持っていて、活発に情報交換が行われていることが分かります。 

前述のXtremIOやECSも個別のスペースを持っています。

 

ECN_products_list.jpg

 

但し、これらの製品別サブスペースはWorldWideで運用されているため英語が前提になっています。

英語のハードルは大きな壁になっている現実があります。

 

 

そこで日本語でのコミュニケーションを可能にしたEMC日本語コミュニティ というサブスペースがあります。


EMC日本語コミュニティはこちら:

https://community.emc.com/community/support/japanese

 

 

このEMC日本語コミュニティは2013年より正式運用を開始して以来、今日まで着実に成長し続けています。

四半期毎のページビュー数は、当初5万ビューでしたが、昨年末より30万ビューを超えています。

外資系ストレージ企業の中では最大規模の日本語コミュニティサイトとなっています。

 

 

ページビュー(日本語コミュニティ):

ECN_page_view.jpg

 

 

グーグルやヤフーなどの検索サイトでECNコンテンツはヒットするので、資産も有効利用されます。

例えば検索キーとして[VNX FAST 日本語] と入れるとECN日本語コンテンツが上位に出てきます。

読むだけであればECNはユーザー登録も不要です。

 

 

また、四半期ごとの質問数も100から300超へと右肩上がりで成長しています。

単純計算でも1日3件以上の質問が投稿されています。

 

質問数(日本語コミュニティ):

ECN_NumOf_questions.jpg

 

成長の要因はいつくか考えられます。

 

 

・EMC製品のポートフォリオ拡充

 ストレージはもとより、ソフトウェア製品も拡充しているため質問の間口が広がっている

 

 

・コンテンツの管理

 ECN管理者の適切なハンドリングによりサイトやコンテンツが安定している

 

 

・ユーザー参加型への変革

 EMCからの回答という一方通行ではなく、ユーザー(EMC社外の方)間の双方向コミュニケーションに発展している

 

 

 

2015第二四半期でユーザー回答率は17%で、約6件に1件がユーザー回答となっています。

今後は無償版ソフトウェアの拡充で、よりユーザーサイドで検証環境を構築しやすくなります。

またソフトウェアは環境要件が多様化するため、ユーザー経験のナレッジは重要度を増していくでしょう。

 

このように日本語コミュニティはEMCサポートの一翼を担っている状況です。

無償版ソフトウェアのためのコミュニティーサポートの土台は既に出来上がっているのです。

 

 

ECN_OSS_support.jpg

 

 

またオープンソースに関しては、Stackoverflowなどのオープンコミュニティとの連携が必要になりますが、日本語コミュニティが橋渡しをすることも視野に入れています。

図の赤矢印パスの重要性が高まってくる予感です。

コミュニティーサポートにご期待ください! 

 

最後に、日本語コミュニティの積極的な活用をお願いします。

ソフトウェア主導 (Software Driven)

 

 

今年のEMC Worldで「ソフトウェアドリブン」というキーワードが多用されたように、世の中を取り巻く環境はソフトウェア主導モデルにシフトしつつあります。

 

software_driven.jpg

 

EMCはソフトウェアドリブンを推進するためにはオープン化の力を借りる必要があると判断し、積極的にオープンソースソフトウェア(OSS)やコミュニティーによる情報交換/サポート、さらにフリー版ソフトウェアなどを提供しています。

 

 

 

 

このような背景により、EMCのフリー版ソフトウェアは着実にラインナップを拡充しています。 

EMC製品の評価版利用はハードルが高いというイメージを持たれているかもしれませんが、現在では約15のフリー版ソフトウェアをダウンロードできます。(一部トライアル版)

フリー版はコミュニティーサポートのためテスト/検証環境向けの用途となっていますが、機能的には正規ライセンス版と同等です。

 

https://www.emc.com/products-solutions/trial-software-download/index.htm

 

software_download_3c.jpg

 

 

 

 

 

ECSクラウドストレージ (ECS Cloud Storage)

 

この中でソフトウェアベースのストレージに着目すると、今年のEMC Worldで発表したScaleIO(スケールアウトのブロックストレージ)やvVNX(仮想VNX)に加えて、先月よりECS(Elastic Cloud Storage)がリリースされていています。

 

ダウンロードはここから。

http://www.emc.com/products-solutions/trial-software-download/ecs.htm

 

3_SDS_c.jpg

 

 

 

 

 

ECSはオブジェクトやHDFSをサポートするGEOスケールのクラウド向けストレージとして昨年リリースしました。

元々はハードウェアと組合わせたアプライアンスとして提供していましたが、単体ソフトウェアとしての提供も選択肢に加わりました。

 

これにより「気軽に試せる」フリー版のソフトウェアストレージのポートフォリオが広がり、ブロック、オブジェクト、ファイル、HDFSなどの様々なプロトコル(ワークロード)が容易に検証できるようになりました。

 

(赤枠内がフリー版コンポーネント)

Soft_Storage_SCIO_ECS_vVNX.jpg

 

 

 

 

ECSは複数ノードでスケールアウトできますが、フリー版ではDocker Swarmを使ってクラスタを構成します。

フリー版らしく下記コミュニティーで詳しい情報を提供しています。

 

http://blog.emccode.com/2015/06/22/deploy-ecs-with-5-ways-of-docker/

 

 

 

 

さらにECSのテクニカルホワイトペーパーによるとNFSサポートも予定されているので、Hadoopでの高速コピーなど用途がさらに広がりそうです。

 

http://www.emc.com/collateral/white-papers/h13518-ecs-technical-architecture-wp.pdf

 

ECS_object_HDFS_NFS.jpg

 

 

 

オープン化の変革の一つとしての「気軽に試せる」EMCプロダクト、今後も拡充が期待されます。是非お試しください!

今年のEMC Worldにおいて vVNX が正式リリースとなりました。

 

Project Libertyとして昨年のEMC Worldでプレアナウンスされたものですが、

プロジェクトが1年の熟成を経てプロダクトになりました。

 

header-image-vvnx.png

 

vVNXは"Virtual VNX" と読めますが、コードは現行のVNXではなくVNXe2ベース(Unityアーキテクチャー)となっています。

ロゴにある通り、VMware(ESXi)上の仮想アプライアンスとして展開します。

主なストレージプロトコルとしてCIFS/NFSに加えiSCSIが利用できますので、Unifiedストレージを実現できます。

 

 

今回のリリースは「vVNX Community Edition」という位置づけで、サポートはCommunity(ECN)で行います。

EMC VNX Community

 

日本の皆さまへの朗報として 日本語コミュニティ でも質問を受け付けますので、英語は苦手という方も安心です。

ストレージシステム

 

主用途はテストや開発環境となっていて、Production(本番環境)での利用は今後サポート予定となっています。

将来はクラウドやコンバージドインフラ上での展開の他、レプリケーション・ターゲットなど、幅広い応用が期待できます。

 

下図はVirtualGeekより抜粋(VMAXと組込NASは実装済)

vVNX_03.jpg

 

 

ダウンロードや関連資料はこちらから。環境要件やインストール方法など充実しているので不便は感じないと思います。

http://www.emc.com/products-solutions/trial-software-download/vvnx.htm

 

デモ動画:POOL,LUN,Filesystem,Share作成など3分程度で紹介しています。

https://www.youtube.com/watch?t=15&v=HFr1QpHMtXI

 

ライセンス入手はこちら。(評価ライセンスの入力が必要です)

https://community.emc.com/docs/DOC-43352

 

 

サポートする機能はVNXe3200との比較が役立ちます。(シングルSP、FCなし)

vVNX_02b.jpg

 

 

起動した画面はこちら。 現バージョンではOE 3.1.2 となっています。

 

vVNX_0514b.jpg



EMC製品全般でソフトウェア化が進み「試してみる」ハードルが随分と下がりました。

vVNX 是非お試し下さい!


今年のEMC Worldにおいて DSSD がTechプレビューでお披露目となりました!

これをベースにDSSDの製品概要を紹介します。


*** この記事はTech Previewベースのため、正式リリース時の内容とは異なる可能性があります ***

 

D5.png


DSSDは「ラックスケール・フラッシュ」という位置づけで、大量データを高速に処理するための製品です。

サーバのPCIバスをエクステンドし、DSSDと直結するのが特長です。

 

外部ストレージのインターフェース(FC,iSCSI等)はCPUやメモリ環境から見ると、大きなオーバーヘッドがありましたが、PCIバス直結により低遅延を実現し、外部アプライアンスとすることで大容量化とデータ共有を可能にしています。


DSSD D5 製品外観(5Uのラックマウント)

IMG_1509.JPG.jpg

 

 

DSSDはDRAMメモリとAFA(外部ストレージ)の間を狙っています。

新たなカテゴリーのゲームチェンジプロダクトということができます。

 

DSSD_chad_201405.png

 

 

DSSD D5製品概要

5Uラックマウント

・デュアルコントローラ

IOポート PCIe3.0 48ポート/コントローラ

・接続サーバmax 48

・フラッシュモジュールmax 36枚(144TB raw

・電源、ファン冗長化(ホットプラグ)



フラッシュモジュール(2TBと4TBのカスタム仕様)

 

DSSD_card1.JPG.jpg DSSD_card2.JPG.jpg

 

実機を見る機会があったので動画で紹介!

 

 

サーバには専用のPCIカードを使用しDSSDと接続します。

OSからはAPPに応じたプラグイン(ドライバ)が提供される予定です。

 

キーノートセッションではHadoop によるDASDSSDの性能比較を行うデモを披露しました。

DASはノード40HDFSを構成し、DSSDはノード14での比較です。

50TBの処理を同時スタート!

 

DSSD_chad_1c.jpg

 

DSSDが終了するころに、DAS2%の進行状況となっています。

 

DSSD_chad_2c.jpg

 

 

結果として50TBHadoop処理にDSSD22秒、DAS30分以上となりました。

処理が速いだけでなく、ノード数も削減できることがわかります。


ビッグデータ系の処理におけるDSSDの効果が期待できます。

HDFSのストレージとしてIsilonは定番ですが、メモリに近い処理速度がDSSDのメリットとなります。

 

用途は、大量データの高速処理を要求されるもの全てがターゲットです。

正式リリースはまだ先ですが、Hadoop、HPC、ゲノム・医療分野など高速化に興味のあるアプリケーションがあればEMC担当者まで!


DSSD_Biz.jpg

EMC最大のイベントであるEMC World まで2週間と迫ってきました。
今年のテーマは「REDEFINE.NEXT」です。


どんな発表があるのか楽しみなところです。

今回はEMCストレージの向かう先を、二つの切り口で考えてみます。

 

1 ストレージアプライアンス vs コンバージドインフラ(CI)

 

EMCはVNX/VMAX/Isilon/XtremIOなどの専用ストレージとVSPEX/VBLOCKなどのコンバージドインフラ両方の製品群を持っています。

コンバージドインフラにはEMCストレージが組込まれるため共存・共栄が進み、サポートするストレージコンポーネントの幅も広がっていくでしょう。

 

今年はここに、VSPEX BLUEというハイパーコンバージドインフラもラインナップに加わりました。
VSPEX BLUEはストレージとしてはVirtual SANを使います。つまり専用ストレージは必要ではなくなります。

 

一部ではコンフリクト(製品衝突)の可能性もありますが、適材適所のCIの選択肢を増やし、Federation(EMC/VMware/Pivotal/RSA連合)のメリットを生かす方向です。

 

 

CI_landscape.jpg

 

 


2 ハードウェア vs ソフトウェア


VNXなどの専用ハードウェアモデルとScaleIOに代表されるソフトウェアモデルが存在します。

EMCの仮想アプライアンス版(Virtual Edition)としては、既に RecoverPoint、VPLEX、Avamar等があります。

 

ハードウェア(特にCPU)の性能向上を背景に、ソフトウェアモデルにシフトしているのは周知の事実です。 

特に成熟したテクノロジー(アーキテクチャ)ではコモディティ・ハードウェア上のアプリケーションとして実装するケースが増えてくるでしょう。

 

熟成分野のソフトウェア化と新興分野でのNEWハードウェアが期待されます。


HW_SW_NEWe.jpg

 

 

 

OR か AND か ?
AND_ORb.jpg

 

 

上図は成功のためにはハイブリッド(AND)で考えるということを言っています。

昨年のEMCで大きく取り上げられた3rdプラットフォームも2ndプラットフォームとの”AND”が重要です。

 

EMCはポートフォリオの会社なので、EMC Worldではさらに選択肢が増えるでしょう。
新しい技術をANDの考え方で捉え、優先順位を読み取るとフォーカスする部分も見えてくるはずです。 

さまざまな発表に期待してください!

 

 

参考URL:

リアルタイムで情報を発信!! EMC World 2015(Ask the Expert)@EMC日本語コミュニティ

https://community.emc.com/thread/212270

VSPEX BLUE はEMCの 「ハイパーコンバージドインフラ・アプライアンス」 です。

 

 

BLUE-02.jpg

 

ハードウェアはコモディティ・サーバノード4台を2Uにパッケージしたアプライアンスとなっています。 

(最大4アプライアンス、16ノードまで拡張可能)

 

ソフトウェアはVMware社のEVO:Railがコアとなっていて、その上でEMCオリジナルのソフトウェアが動作します。

 

 

EVO:Railは構成がシンプルで設定も容易なため、注文から構築・導入完了まで極めて短期間となることがメリットです。

「電源投入から15分で仮想マシンの展開」ができるという共通メッセージです。

また、アプライアンスの追加により性能と容量を同時にスケールアウトできます。

 

 

 

3つの技術的特長


では、EMCのVSPEX BLUE としてはどうでしょうか?


EMCはVMware社とはFederation(企業連合)戦略のもと、経営や技術的に密な結合を実現しています。


BLUE-Federation.jpg



そのテクノロジー視点の特長を3つ紹介します。(下図赤枠)

 

 

BLUE-05c.jpg

 

 

1. VDPAによる拡張バックアップ


VDPの拡張版である VDP-Advancedが使えますので、優れた重複排除機能を備えるDataDomainをバックアップ先として利用することができます。


vSphere 6.0からはVDPAが標準機能となりますが、DataDomainへのバックアップは継続してEMC VSPEX BLUEの大きなメリットです。

 

 

 

 

2. RecoverPoint for VMsによるレプリケーション


vSphere環境に特化したRecoverPoint for VMsにより、ローカル及びリモートの高度なレプリケーションを構成可能です。

アプライアンス毎に15VMsのライセンスがバンドルされます。

 

 

 

3. CloudArrayによるクラウド連携


EMCのクラウドゲートウェイであるCloudArrayのVirtual Editionライセンスがバンドルしますので、クラウドへのデータオフロードなどが可能です。


CloudArrayについてはこちらも参照下さい。

 https://community.emc.com/community/support/japanese/blog/2015/03/20/cloudarray-%E3%83%95%E3%82%A1%E3%83%BC%E3%82%B9%E3%…

 

 

 

 

位置づけ

 

ストレージ視点としてはVirtualSAN(VSAN)によりサーバ内蔵DISKを共有ストレージとして使うので、EMC製品でありながらストレージ専用のハードウェアを持たないことになります。

 

 

よく聞かれる質問があります。

「EMCはサーバーベンダーになるのか?」  → 答えは、Noです

 

「自社ストレージ製品と競合するのでは?」  →答えは、YesでありNoです

 

 

 

EMCは「ポートフォリオの会社」です。 ストレージにおいて一つのアーキテクチャ(ストレージ製品)で全てのワークロードに対応するのではなく、ワークロードに応じた選択肢を提供しています。

 

コンバージドインフラにおいても、ポートフォリオを拡充し選択肢を一つ増やしたことになります。

既存のVBLOCK、VSPEXに加えて今回ハイパーコンバージドのVSPEX BLUEが加わりました。

(VSPEX BLUEはディストリビュータ販売モデルです)

 

 

図3

BLUE-01.jpg

 

 

そして今後も選択肢を増やしていきます!

5月に開催のEMC World の発表にもご期待ください。

 

 

 

参考URL:

  VSPEX BLUEページ

     http://japan.emc.com/cloud/vspex/products.htm

 

  パートナー様向けイネーブルメントページ

     https://www.emc.com/auth/rpage/ec-for-vspex-blue.htm

Filter Blog

By date:
By tag: