仮想化エンジニア奮闘記

Citrix や VMware といったサーバー・デスクトップ仮想化の最新技術や設計情報の検証結果を共有します。(本ブログは個人のものであり、所属する会社とは関係ありません。)

VCP6.5-DCV合格体験記

みなさまお疲れ様です。

 

昨日VMwareの資格であるVCP6.5-DCVに合格したので共有します。


4月にVCP6-DCVを取得しましたが、バージョンアップしました。
既に有効なVCP資格を持っているため、今回はDelta Examの受験です。

VCP6-DCVの記事は ↓ こちら。

 

kenta-virtualization.hatenablog.com

 

VCP6.5-DCV Delta Exam 合格ライン:300 問題数:70
スコア:481

でした。恐らく、500点あたりが最高得点かと思いますので42問程度で合格かと思います。

 

試験を受けるにあたり、以下のサイトで例題を解き進め、
約1週間程度の勉強で合格できました。

2V0-622D | Briefing VMware Knowledge

 

試験ではvSphere 6.5の新機能が出ました。下記が印象に残っている問題ですね。

・vCenter Server のバックアップ・リストア

・Proactive HAの機能

・Predictive DRSの機能

・vSphere 6.5 へのバージョンアップ

・vCenter ConverterによるP2Vマイグレーション要件

 

それでは本日は以上となります。

ありがとうございました。

vSphere Web Client で Flash が Crash する

皆さまお疲れ様です。

 

最近vSphere Web Clientでアカウントを入力し、ログインを試みたら下記の画面が表示され、Web Clientが使えない事象が起きました。何度再読み込みしても下記の画面となるのです 汗

 

f:id:kenta53682:20171020120235p:plain

 

どうやらShockwave Flashが27.0.0.170だと上記の事象が出るようです。

Shockwave Flash crashes with vSphere Web Client 6.x (2151945) | VMware KB

 

サイトを見ると「pepflashplayer.dll を過去バージョンのものに置き換える」というワークアラウンドが記載されています。

Community forums have identified a workaround of replacing the pepflashplayer.dll file with an older version as well.

 

VMware側としては「Currently there is no resolution.」と記載されている通り、解決策はないようですね。FlashのバグのようなのでVMware側で何かすることはできない感じでしょうか。

 

普段Chromeを利用しているのですが、最新のChromeにしたら上記のような状況となり、泣く泣くFirefoxをインストールしました。

 

特にvSphereを構築されている方や、運用されている方でChromeを利用されている場合は最新バージョンに上げないように気を付けて下さい。

 

本日は以上となります。ありがとうございました。

vSANやるぞー!(3)-vSANのディスク構成

皆さまお疲れ様です。

間が空きましたが、引き続きvSANの記事を投稿してゆきます。

 

ポータルへ戻る場合はこちら

vSANやるぞー!(1)-まずはここから読んでね - 仮想化エンジニア奮闘記

 

既に第2回目で記載をした通り、vSANでは Cache Disk と Capacity Disk を Disk Group という1つのグループにまとめます。

 

vSAN 6.6.1 では Disk Group、Cache Disk、Capacity Disk の構成上限は下記の通りです。

Disk Group:1ESXi 当たり 5

Cache Disk:1Disk Group 当たり 1 (従って、1ESXi 当たり最大5)

Capacity Disk:1Disk Group 当たり 7 (従って、1ESXi 当たり最大7×5=35)

 

今回は、上記の中でもCache Disk / Capacity Diskに注目して記事にしてゆきます。

 

 

①Cache Diskについて

第2回目で記載をした通り、All Flash Type / Hybrid Typeのいずれにしろ、Cache DiskはSSDである必要があります。

 

vSANにおいて、すべてのRead / Write処理はまずCache DiskのSSDに直接渡されます。容量のうち、30%が不揮発性のWrite Bufferとして利用され、70%がRead Cacheとして利用されます。

若干バージョンが古い記事ですが、vSAN 6.5 Design and Sizing Guideでは、Cache Diskサイズは、Capacity Diskサイズの10%とすることが推奨されています。(p.14参照)

(但し、vSAN Ready Nodesの構成でも5%~20%の間となっていることが多く、必ずしも10%となっているわけではありません。)

 

下記は一例ですが、vSAN Ready Nodes における Cache Disk:Capacity Disk の割合となります。

f:id:kenta53682:20171011215152p:plain

 

 

VMware Compatibility Guide を見ると、各SSDはパフォーマンスと耐久性がクラス分けされていることが分かるかと思います。(下記はLenovo System x 3650M5 AF-6 のサンプルです。)

f:id:kenta53682:20171011215517p:plain

 

 

パフォーマンスクラス(Performance Class)はB~Fでクラス分けされており、耐久性クラス(Endurance Class)はA~Dでクラス分けされています。アルファベット昇順に耐久性/パフォーマンスが上昇します。

f:id:kenta53682:20171011215840p:plain

Virtual SAN Hardware Quick Reference Guide より 

 

vSAN Ready Nodesの機器を見ると、Performance Class E、Endurance Class Dがほとんどです。Ready Nodesではなく独自構成とする場合は、上記がCache Diskの指標となるかと思います。

 

SSDの性能はvSANのパフォーマンスに大きく影響を与えるため、クラスに注意して製品選定を行いましょう。ちなみに、Lenovo vSAN Ready Nodes の Cache Disk は 400GB SAS 2.5" MLC G3HS Enterprise SSD(12Gbps) で希望小売価格50万程度なのでそこそこ値段しますね。

 


②Capacity Disk
Capacity Disk は SSD または HDD にて構成します。SSD または HDD でvSANのタイプが変わります。(ちなみにどのvSANライセンスでも Hybrid / All Flash 両方対応可です。)
SSDの場合は、vSAN All Flash Type となり、
②HDDの場合は、vSAN Hybrid Type となります。

 

HDDはパフォーマンスとコストに応じて15krpm SAS / 10krpm SAS を選んでいく形になります。

一方、SSD の場合は①Cache Disk程のパフォーマンス、耐久性でないディスクを使用します。(下記はLenovo System x 3650M5 AF-6 のサンプル)

f:id:kenta53682:20171011221033p:plain

 

3.84TB 6Gb SAS 2.5型 Enterprise Capacity G3HS MLC SSD は Cache Diskと比べて6.0Gbps SASとなり、上記のようにパフォーマンス/耐久性が下がり、希望小売価格も82万と容量当たりの価格は安くなります。

 

 

①および②とも、基本は VMware Compatibility Guide に則って製品選定を行います。

 

それでは本日は以上となります。

ありがとうございました。

R1 という隠し Citrix Receiver for iOS

皆さまお疲れ様です。

この記事は話半分程度に見て頂ければと思います 笑

 

実は先日「R1」というCitrix Receiver for iOS があることを知りました!

 

App Storeで「Citrix Receiver」と検索しても出てこない、「R1」と検索して出てくる隠しCitrix Receiverとなります。(こんなの初めて聞いたよって方、それが正常です 笑)

 

R1

R1

  • R1
  • ビジネス
  • 無料

 

まぁ普通だったらそんなニッチな情報を記事にすることもないのですが、今回「Citrix Receiver for iOSで動作が重かったのがR1を使ったら改善した」ということがあり、記事にしました。

 

Citrix Receiver for iOS 7.3(最新版) だと、iPad Proで動作がもっさり(VDI上でウィンドウをドラックして動かすと、マウスの後に少し遅れてウィンドウがついてくる感じです)していたのが、R1だと軽くなり、マウスにほぼラグなしでウィンドウがついてくる動きになりました。

 

一応、AppStoreの情報を見るとバージョンは 6.1.5 となっています。Receiver for iOS 7.3(2017年10月11日時点の最新版) で設定可能な最新機能の設定項目はなかったものの、XenDesktop に接続したり、x1 mouse を使ったりは普通にできました。

 

Receiver for iOSの動作にケチをつけまくったお客様がいてR1がリリースされたとかなんとか。必要な機能だけ搭載した軽量版、という立て付けらしいです。(真偽は分かりません。公式ドキュメントにもほとんど出ていないので。) ただ、日本国内でも導入実績はあるようです。

 

勿論Citrixがこれを公式にサポートするかは分からないので、動作が重くて悩んでいる担当者の方は、一度R1を試してみて、改善したらその情報を元にCaseを作って Citrixに Receiver for iOS を修正させましょう 笑

 

それでは本日は以上となります。

ありがとうございました。

XenDesktop / XenApp サイジング(8)ーNetScaler

皆さまお疲れ様です。

この記事では NetScaler のサイジングを記事にします。

 

ポータルへ戻る場合はこちら

XenDesktop / XenApp サイジング(1)-まずはここから読んでね - 仮想化エンジニア奮闘記

 

 

⑨NetScaler

NetScalerのサイジングの指標となるのは、ICA Proxyの同時接続ユーザー数と、SSLの秒間のトランザクション数なります。

※NetScalerの機能である ICA Proxy については、こちらを参照して下さい。

NetScalerでできること - 仮想化エンジニア奮闘記

 

 

NetScalerは物理アプライアンス版と、仮想アプライアンス版があります。

NetScalerのスペック一覧はこちらを参照して下さい。

NetScaler ADC - アプリケーション デリバリー コントローラー、L4-7ロードバランサー、GSLB - シトリックス

 

 

まずは物理アプライアンス版から見ていきましょう。

エントリーモデルの MPX 5550 でも同時接続ユーザー数5,000、SSLの秒間トランザクションが1,500となります。

ほとんどの環境では、MPX 5550の冗長化込みの2台構成(HA構成)で事足りる

 

なお、NetScalerは2台でもActive / Standby のHA構成となるため、冗長化にしても処理能力は向上しません。

 

 

続いて、仮想アプライアンス版を見ていきましょう。

仮想アプライアンスは適用するライセンスによってアプライアンスの能力が向上します。

最低(VPX10)だと「スループット10Mbps、同時接続ユーザー数15、SSLの秒間トランザクションが1,100」となります。

一方で、最高(VPX100G)では「スループット100Gbps、同時接続ユーザー数9,000、SSLの秒間トランザクションが20,000」となります。

 

勿論仮想アプライアンス版のため、10Gbps以上のスペックにするにはライセンス以外にも

①ハイパーバイザーのNIC自体が10Gbps以上である

②NetScaler VPX の NW Driver が SR-IOV や PCI pass-through になっている

(SR-IOV は Enterprise Plus ライセンスが必要)

などの条件が必要となります。

ほとんどの環境では、VPX 1000(1Gbpsモデル)で事足りる。それ以上のスペックが必要な場合は、ハイパーバイザーの構成やライセンスにも依存するため、物理アプライアンス版の導入も合わせて検討する

 

 

それでは本日は以上となります。

ありがとうございました。

 

XenDesktop / XenApp サイジング(7)ーProvisioning Services

皆さまお疲れ様です。

この記事ではProvisioning Services のサイジングを記事にします。

 

ポータルへ戻る場合はこちら

XenDesktop / XenApp サイジング(1)-まずはここから読んでね - 仮想化エンジニア奮闘記

 

 

⑧Provisioning Services

PVSではvDisk(ブートイメージ)の情報をメモリキャッシュ上に保持する(ストレージからのReadを減らす)ため、メモリのサイジングが重要となります。

 

CPU:4vCPU

VDI Handbook上では下記が指標となっています。

約500VMまでは4vCPU、それ以上の場合は8vCPUが推奨

 

上記の指標はあるものの、PVSではCPU使用率が集中することはないので、基本的に4vCPUで十分かと思います。(CPUを多くするより、PVSをスケールアウトさせた方がよい。)

 

但し、CPU数はストリーミングの最適化に影響を与えます。PVSの最大同時ストリーミング数は下記の計算式で計算できます。

Max Number of Streams = # of Ports × # of Threads / Port

 

メモリ:vDisk数に応じて変化

4GB [OS使用分] + DesktopOS イメージ数 × 2GB + ServerOS イメージ数 × 10GB

 

PVSの最初でも記載した通り、PVSではメモリのサイジングが重要となります。

ネットワールド社の資料を参考にすると

デスクトップOS:イメージ数 × 2GB

サーバーOS:イメージ数 × 10GB

をOS分に上乗せします。

 

例えば、XenDesktop用のイメージ1つ、XenApp用のイメージ1つであれば、

4GB + 1 × 2GB + 1 × 10GB = 16GB

となります。

 

※VDI Handbook上では下記の計算式となっていますが、OSは4GBを見ておいた方がよく、かつServerOSのvDiskは10GBで見ておいた方がよいです。

Total Server RAM = 2GB + (# of vDisks × 2GB)

 

なお、ターゲットデバイス側の Write Cache のサイジングは以下が指針となります。

f:id:kenta53682:20170925201859p:plain

※DesktopOSはスケール重視か、エクスペリエンス重視かでRAMサイズが変わります。

 

・ディスク:vDisk配置に応じて変化

vDiskをローカルに配置する場合は、その分の空き容量が必要となります。

vDiskの保管世代数は企業のポリシーに依存しますが、更新作業を想定して

最低でもvDiskの2~3倍の容量

は空けておいた方がよいです。

 

勿論、vDiskが共有フォルダ上にある環境(複数台のPVSサーバー環境)では、ファイルサーバー側にvDiskの2~3倍の空き容量が必要となります。

 

 

SQLデータベース:250MB (XenDesktopと同一インスタンスでOK)

Provisioning Services にも 設定値などを保存するため、データベースが必要となります。基本的にはDelivery Controller の データストアSQLサーバーと相乗りでOKです。(同じインスタンスで別DB)

 

Provisioning Services のSystem Requirementsから、おおよそ250MBをデータベースで見込んでおけばよいようです。

Provisioning Services - System requirements

→ 250 MB for the database

 

 

・ネットワーク:OSおよびターゲットデバイス数に応じて変化

Provisioning Services は PXEブートをベースにしたものなので、ネットワークIOが大きいです。そのため下記に注意した構成にすべきです。

・イメージストリーミング用のNICを用意する

・ストリーミング用のNICは10Gbps以上で構成する

・vDisk格納場所とProvisioning Services間も1Gbps以上で構成する

 

OSのブートサイズの平均サイズは下記の通りとなっています。

f:id:kenta53682:20170925200308p:plain

 

ターゲットデバイス数、およびネットワーク帯域幅に応じたOS起動時間は大よそ下記の通りとなります。

Seconds to Boot = (Number of Targets × MB Usage) / Network Throughput

 

VDI Handbook上ではWindows 10 x64 500台を起動する時間について、1Gbps と 10Gbpsで比較しています。やはり10Gbpsだとブート時間もかなり早くなります。

f:id:kenta53682:20170925200921p:plain

 

 

本日は以上となります。ありがとうございました。

vSANやるぞー!(2)-そもそもvSANってなんだ

皆さまお疲れ様です。

 

告知していた通り、Citrixの記事と並行してvSANの記事を投稿します。

今回は初回ということで、vSANの概要や構成要件について記載します。

 

ポータルへ戻る場合はこちら

vSANやるぞー!(1)-まずはここから読んでね - 仮想化エンジニア奮闘記

 

元々、vSANはvSphere 5.5から実装された機能で、2014年4月に提供が終了されたvSphere Storage Appliance(VSA)の後続製品として発表されたと記憶しています。

Software Defined Storage製品として、2017年現在ではHCIと組み合わされて使われることがほとんどです。

 

ちなみに、2017年9月21日時点でのvSANの最新版は、vSAN 6.6.1となります。

(vCenter 6.5.0 Update1 以降で対応)

 

 

その1.そもそもHCIってなんだ?

vSANとセットで出てくる用語に、HCIというものがあります。

Hyper Converged Infrastructure の頭文字を取った用語です。

 

~~~HCI以前の一般的なハードウェア構成~~~

現在でも企業の一般的なハードウェア構成は下記の通り、Network + Server + SAN + Storage という構成かと思います。

NW・サーバー・SANとコンポーネントが分散されることで、パフォーマンスと拡張性が高いインフラ構築が可能です。

その一方で「コンポーネントが分散されることで専用の管理者が増え、運用コストがかかる。」「サーバー追加の際に既存機器の設定変更が多くなり、迅速なサーバー追加が不可能。」などのデメリットもあります。

 

f:id:kenta53682:20170919220008p:plain

 

 

~~~HCIのハードウェア構成~~~

 HCIではSSD / HDDが内蔵されたサーバーを複数台準備し、ソフトウェアでローカルストレージを1つの共有ストレージとして認識させることで、SANの管理が不要となり、シンプルな仮想化基盤が構築できる点が特徴です。

この「ローカルディスクをまとめて共有ストレージに見せるソフトウェア」がvSANです。

今までは新規サーバーを導入する場合も、SANスイッチのゾーニング変更や、ストレージのホストマッピング追加など設定変更箇所が多かったところが、HCIではサーバーを追加し、Web Clientで数クリックをするだけで追加が完了します。かつ、管理者もサーバー管理者のみでよくなります。従って、HCiではHCI以前のインフラ基盤のデメリットが解消されます。

パフォーマンスについても、All Flashであれば25,000 IOPS~80,000IOPS(※)などEntry~ミドルレンジのストレージに近いIOを出すことが可能です。

 

f:id:kenta53682:20170921221754p:plain

 

vSAN Ready Nodes AF2~8のMaximum IOPSより

 

 

その2.そもそもvSANってなんだ?

その1.でvSANは「複数サーバーのローカルディスクをソフトウェアでまとめて1つの共有ストレージに見せる機能」と記載しました。

但し、vSANはストレージのようにVolumeという概念はなく、RAIDを構成したりプールからボリュームを切り出したりする作業は行いません。

 

vSANは簡単に言うと、下記の特徴を持っています。

①複数台のESXiのローカルディスクをまとめ、共有ストレージを作る

②ESXiのローカルディスク構成は All Flash or Hybrid(SSD+HDD) の2タイプある

③各ESXiは最低1つのSSDが必要

④③の1つのSSDはRead Cache 70% / Write Buffer 30%用のCache Diskとして使用される(vSANデータストア容量には含まれない)

⑤Cache SSD以外のSSDまたはHDDはCapacity Diskとして使用される(vSANデータストア容量に含まれる)

⑥Cache Disk×1、Capacity Disk×n(最大7)でディスクグループを作る

⑦ディスクグループは1ESXi当たり最大5個設定が可能

⑧vSAN自体にはRAIDという概念はないため、vSANデータストアは「Capacity Disk×ディスク本数分」の容量となる

⑨vSANデータストアはクラスターで1つだけとなる

RAIDのような耐障害性はvmdkを複数ホストに分散配置することで実現する

⑪⑩を実現するため、各仮想マシンに「仮想マシンストレージポリシー」を適用する

⑫⑩を実現するため、ストレージポリシー内でFTT(何台のホスト障害に耐えれるようにするか)を設定する

⑬FTTで設定した台数のホストにvmdkが保存される(FTT=1、40GBの仮想マシンなら、2台のESXiのCapacity Diskに40GBのvmdkが保存される)

⑭⑬でvmdkが保存されたESXi以外のホストに、Witness用のデータが保存される

⑮vSANデータ連携用のネットワーク(VMkernel)が必要。All Flashの場合は10Gbps、Hybridの場合は1Gbpsが最低でも必要

 

箇条書きで要点をまとめましたが、vSANの概要図は下記の通りになります。

私も実際に触るまでは、vSANを「ローカルディスクをソフトウェアRAIDで組む機能」だと誤認識していました。実際はvmdkファイルの分散配置で疑似的にRAID(のようなもの)を実装し、耐障害性を実現しているイメージとなります。

 

 

f:id:kenta53682:20170921231834p:plain

 

 

その3.vSANを組むには何が必要?

前提条件は、Requirements for Enabling vSAN の記事を見るのが近道です。

下記をご参照下さい。(vSAN 6.6の記事となります。)

Requirements for Enabling vSAN

 

それでは本日は以上となります。

長々とありがとうございました。