Power Tech Night School 第9回 VIOSベスト・プラクティス

IBM Power Systems
インターネット・セミナー
Power ナイト・スクール 第9回
VIOS ベスト・プラクティス
~Virtual I/O Server がさらにわかる設計・構築ノウハウ集~
2013/12/10
Power Systems テクニカル・セールス
rev 1.2
© 2013 IBM Corporation
•© IBM Corporation 2013. All Rights Reserved.
•ワークショップ、セッション、および資料は、IBMまたはセッション発表者によって準備され、それぞれ独自の見解を反映したものです。それらは情報提供
の目的のみで提供されており、いかなる参加者に対しても法律的またはその他の指導や助言を意図したものではなく、またそのような結果を生むもので
もありません。本講演資料に含まれている情報については、完全性と正確性を期するよう努力しましたが、「現状のまま」提供され、明示または暗示にか
かわらずいかなる保証も伴わないものとします。本講演資料またはその他の資料の使用によって、あるいはその他の関連によって、いかなる損害が生じ
た場合も、IBMは責任を負わないものとします。 本講演資料に含まれている内容は、IBMまたはそのサプライヤーやライセンス交付者からいかなる保証
または表明を引きだすことを意図したものでも、IBMソフトウェアの使用を規定する適用ライセンス契約の条項を変更することを意図したものでもなく、ま
たそのような結果を生むものでもありません。
•本講演資料でIBM製品、プログラム、またはサービスに言及していても、IBMが営業活動を行っているすべての国でそれらが使用可能であることを暗示
するものではありません。本講演資料で言及している製品リリース日付や製品機能は、市場機会またはその他の要因に基づいてIBM独自の決定権をも
っていつでも変更できるものとし、いかなる方法においても将来の製品または機能が使用可能になると確約することを意図したものではありません。本講
演資料に含まれている内容は、参加者が開始する活動によって特定の販売、売上高の向上、またはその他の結果が生じると述べる、または暗示するこ
とを意図したものでも、またそのような結果を生むものでもありません。 パフォーマンスは、管理された環境において標準的なIBMベンチマークを使用し
た測定と予測に基づいています。ユーザーが経験する実際のスループットやパフォーマンスは、ユーザーのジョブ・ストリームにおけるマルチプログラミン
グの量、入出力構成、ストレージ構成、および処理されるワークロードなどの考慮事項を含む、数多くの要因に応じて変化します。したがって、個々のユ
ーザーがここで述べられているものと同様の結果を得られると確約するものではありません。
•記述されているすべてのお客様事例は、それらのお客様がどのようにIBM製品を使用したか、またそれらのお客様が達成した結果の実例として示され
たものです。実際の環境コストおよびパフォーマンス特性は、お客様ごとに異なる場合があります。
•IBM、IBM ロゴ、ibm.com、[当該情報に関連し商標リスト中に掲載されたIBMブランド、製品名称があれば追加する]は、世界の多くの国で登録された
International Business Machines Corporationの商標です。
•他の製品名およびサービス名等は、それぞれIBMまたは各社の商標である場合があります。
•現時点での IBM の商標リストについては、www.ibm.com/legal/copytrade.shtmlをご覧ください。
•Adobe, Adobeロゴ, PostScript, PostScriptロゴは、Adobe Systems Incorporatedの米国およびその他の国における登録商標または商標です。
•IT Infrastructure Libraryは英国Office of Government Commerceの一部であるthe Central Computer and Telecommunications Agencyの登録商
標です。
•インテル, Intel, Intelロゴ, Intel Inside, Intel Insideロゴ, Intel Centrino, Intel Centrinoロゴ, Celeron, Intel Xeon, Intel SpeedStep, Itanium, および
Pentium は Intel Corporationまたは子会社の米国およびその他の国における商標または登録商標です。
•Linuxは、Linus Torvaldsの米国およびその他の国における登録商標です。
•Microsoft, Windows, Windows NT および Windowsロゴは Microsoft Corporationの米国およびその他の国における商標です。
•ITILは英国The Minister for the Cabinet Officeの登録商標および共同体登録商標であって、米国特許商標庁にて登録されています。
•UNIXはThe Open Groupの米国およびその他の国における登録商標です。
•Cell Broadband Engineは、Sony Computer Entertainment, Inc.の米国およびその他の国における商標であり、同社の許諾を受けて使用しています。
•JavaおよびすべてのJava関連の商標およびロゴは Oracleやその関連会社の米国およびその他の国における商標または登録商標です。
•Linear Tape-Open, LTO, LTOロゴ, UltriumおよびUltriumロゴは、HP, IBM Corp.およびQuantumの米国およびその他の国における商標です。
3
IBM Power Systems
更新履歴
4
– 2013年 12月 06日
初版 (rev. 1.0) 発行
– 2013年 12月 24日
修正 (rev. 1.1)
– 2014年 1月 29日
不要文字削除 (rev. 1.2)
© 2013 IBM Corporation
IBM Power Systems
本日のナイトスクールの目的と内容
 目的
– 当コースでは、VIOSを構成するに当たって、冗長構成のポイントや、パフォーマン
スデータに基づいたサイジング等、実践的なスキルを身に付けて頂きます。
 内容
– 提案時の統合方針の作成や構成設計に苦慮した経験をお持ちの方、あるいは以
下のような方に、特にお勧めのコースです。
• 『PowerVMで統合化を検討する際、VIOSをどう設計していいのか分からない』
• 『VIOSでIOを統合化した際、信頼性を高める工夫を知りたい』
• 『VIOSのサイジングはどうすればいいのだろう?』
– このコースは、Powerビジネスに携わる初心者の技術者を主な対象としています。
– コース受講後は、Powerシステムのデザインや、運用手順の検討などにもご活用い
ただくことを目標としています。
5
© 2013 IBM Corporation
IBM Power Systems
本日の内容
 VIOS ベスト・プラクティス
1.VIOS概要
• VIOSとは?
• VIOS冗長化による信頼性向上
2.VIOSパフォーマンス
• Virtual Ether
• Virtual SCSI
• VIOS 構築事例紹介
3.PowerVM I/O 仮想化環境構築デモ
6
© 2013 IBM Corporation
IBM Power Systems
VIOS概要
7
© 2013 IBM Corporation
IBM Power Systems
Virtual I/O Server (VIOS)
8
© 2013 IBM Corporation
IBM Power Systems
Virtual I/O Server
 概要
– Virtual I/O を実行するための専用オペレーティング・システム
– AIX をベースとしてカスタマイズされた OS イメージ
•
VIOS 2.x は AIX 6.1 ベース
– 作成した LPAR に VIOS を導入して使用
•
AIX / Linux 区画と同様にシステム・リソース (CPU, メモリー, I/O アダプター) を割り当て

プロセッサーの割り当ては Shared / Dedicated のいずれも選択可能

VIOS 導入用ディスク(rootvg) が必要
– SEA / Virtual SCSI / Virtual FibreChannel (NPIV) を使用する場合に必須
物理
ネットワーク
a5
a4
物理ディスク
a3
物理ディスク
a2
物理ディスク
a1
物理ディスク
物理ディスク
Power System サーバー
イーサネット
アダプター
VIOS
rootvg
ファイバー
アダプター
ファイバー
アダプター
仮想
Fibre
仮想
SCSI
仮想
Ether
LPAR #01
LPAR #02
LPAR #03
AIX V6.1
Linux
AIX V7.1
仮想 仮想 仮想
Fibre SCSI Ether
仮想 仮想 仮想
Fibre SCSI Ether
仮想 仮想 仮想
Fibre SCSI Ether
仮想Ether
仮想 SCSI
仮想 Fibre
POWER Hypervisor
9
© 2013 IBM Corporation
IBM Power Systems
ネットワークの仮想化
10
© 2013 IBM Corporation
IBM Power Systems
Virtual Ethernet
11
© 2013 IBM Corporation
IBM Power Systems
Virtual Ethernet (1)
 概要
– 仮想的なイーサネット・インターフェース
– 仮想イーサネットの作成は HMC (または IVM )から実施
– LPAR に導入された OS は仮想イーサネット・アダプターとして認識
– 実際は POWER Hypervisor を通じたメモリー間のデータ・コピー
• パーティション間の高速通信が可能 (Gigabit を超える通信も可能)
– VIOS は前提ではないが、筐体外部との通信は Virtual Ethernet だけでは不可
– 外部との通信をする場合には以下のいずれを行う必要がある
• SEA (後述) を構成する
• 同一筐体内の LPAR の一つをルーターとして構成する
12
© 2013 IBM Corporation
IBM Power Systems
Virtual Ethernet (2)
* VE : Virtual Ethernet
Power Systems
LPAR1
192.168.1.1
192.168.2.1
LPAR2
192.168.1.2
192.168.3.2
LPAR3
LPAR4
192.168.2.3
192.168.3.4
VE
VE
VE
VE
VE
VE
1
2
1
3
2
3
POWER
Hypervisor
Virtual
Switch
設定した VLAN ID
13
© 2013 IBM Corporation
IBM Power Systems
Shared Ethernet Adapter
14
© 2013 IBM Corporation
IBM Power Systems
Shared Ethernet Adapter (SEA) (1)
 概要
– Virtual Ethernet と筐体外部のネットワークを結びつけるブリッジの役割
– VIOS に割り当てられた、物理イーサネットと Virtual Ethernet を利用して、SEA を
構成
– Virtual Ethernet から外部ネットワークに L2 レベルでの通信が可能
• 筐体外部のノードも各 Virtual Ethernet の MAC アドレスを認識
15
© 2013 IBM Corporation
IBM Power Systems
Shared Ethernet Adapter (SEA) (2)
※ VE : Virtual Ethernet
※ PE : Physical Ethernet
Power Systems
Virtual I/O Server LPAR1 LPAR2 LPAR3
SEA
PE
VE
VE
VE
VE
Node1
1
1
Virtual Switch
1
2
PE
POWER Hypervisor
External Switch
16
© 2013 IBM Corporation
IBM Power Systems
ディスクの仮想化
17
© 2013 IBM Corporation
IBM Power Systems
Virtual SCSI
18
© 2013 IBM Corporation
IBM Power Systems
Virtual SCSI
 概要
– 物理的に VIOS に割り当てた FC また SCSI アダプターを通じて、VIOS 上の
ディスク装置を VIOC に仮想的に割り当てる技術
– 物理ボリューム・LUN (PV)、あるいは論理ボリューム (LV) 単位でのディスク領域
の割り当て
• いずれの場合も VIOC からは PV (hdisk) として認識
• LUN を認識するためのデバイス・ドライバー (SDDPCM など) は VIOS に導入し、VIOC
に導入する必要は無い
– Virtual SCSI はサーバー・クライアント構成
• VIOS に Virtual SCSI Server Adapter (vhost)
• VIOC に Virtual SCSI Client Adapter (vscsi)
• Virtual SCSI Server Adapter (vhost) と Client Adapter (vscsi) との紐付けは HMC で
定義
• VIOS が認識するディスク(PV) もしくは LV と vhost を VIOS 上で紐付け
– Virtual SCSI 経由のディスクはブートディスクとして認識可能
19
© 2013 IBM Corporation
IBM Power Systems
Virtual SCSI 概念図
VTD: Virtual Target Device
FC : Fibre Channel
Power Systems
Virtual I/O Server
LVM
FC FC
SAS
物理
ディスク
SAN Switch
20
hdisk
Logical
Volume
VTD
VSCSI
VTD
vhost
vhost
LPAR1
LPAR2
hdisk
hdisk
vscsi
vscsi
LV-PV Mapping
PV-PV Mapping
POWER Hypervisor
Physical Disks
(Fibre Attached)
© 2013 IBM Corporation
IBM Power Systems
N_Port ID Virtualization (Virtual Fibre)
21
© 2013 IBM Corporation
IBM Power Systems
N_Port ID Virtualization (NPIV)
 概要
– NPIV の技術を用いて、物理 FC ポートを複数の LPAR で共有する機能
– N_Port ID Virtualization (NPIV) とは
• 物理 FC ポートを仮想化する業界標準の手法 (ANSI T11 ファイバチャネル標準に含まれる)
• 従来、1つの物理 FC ポート(N_Port) には、1つのN_Port ID が対応していたが、NPIV では N_Port と
N_Port ID の対応を仮想化して、複数の N_Port ID を1つの N_Port で共用
– Power Systems での NPIV の実装
• VIOS / VIOC 上に仮想 FC アダプターを構成
• VIOS の物理 FC アダプターと仮想 FC アダプターとをマッピング
• VIOC に固有の N_Port ID (WWPN) を割り当て
• VIOC は物理ファイバーアダプターが割り当てられたのと同様の認識
• NPIV とVirtual SCSI(PV-PVなど) は混在可能
– NPIV 経由のディスクはブートディスクとして認識可能
– FC アダプターは 8Gbps に対応している必要がある
– SAN スイッチやストレージ装置が NPIV に対応している必要がある
22
© 2013 IBM Corporation
IBM Power Systems
Virtual SCSI と NPIV
■ Virtual SCSI 構成
VIOS
ディスク認識
物理ファイバー
アダプター
他社製ディスク
SAN
PV
物理ファイバー
アダプター
PV
VIOC
1:1でマッピング
VTD
仮想ホスト
アダプター
仮想SCSI
アダプター
PV
仮想ホスト
アダプター
仮想SCSI
アダプター
PV
VTD
デバイスドライバー
IBMディスク
■ N_Port ID Virtualization 構成
VIOS
物理ファイバー
アダプター
他社製ディスク
SAN
IBMディスク
23
物理ファイバー
アダプター
VIOC
パススルー
仮想ファイバー
ホスト
仮想ファイバー
アダプター
PV
仮想ファイバー
ホスト
仮想ファイバー
アダプター
PV
デバイスドライバー
© 2013 IBM Corporation
IBM Power Systems
VIOS における冗長構成
24
© 2013 IBM Corporation
IBM Power Systems
VIOS における冗長構成の必要性とメリット
 冗長構成の必要性
– VIOS は I/O を集約した区画となるため、VIOS 自身が冗長構成されていない場合
、単一障害点となり、障害時にはサーバー全体に与える影響が大きい
– このため、VIOS を構成する場合には、同一筐体内で VIOS を二重化することが
強く推奨
 メリット
– VIOS が単一障害点になることを回避するだけでなく、構成によっては I/O アダプタ
ーの専有割り当てよりも、VIOC の可用性を向上することが可能
– VIOS を二重化し、各 VIOS に割り当てる物理アダプターを冗長化することにより「
VIOS の二重化」 x 「アダプターの冗長化」による一層の可用性の向上を実現
25
© 2013 IBM Corporation
IBM Power Systems
ネットワークの冗長化
26
© 2013 IBM Corporation
IBM Power Systems
SEA 高可用性構成 (1) - アダプターの二重化
– VIOS 上の物理アダプターを二重化
• VIOS 上で EtherChannel Backup を構成
Power Systems
Virtual I/O Server
SEA
LPAR1 LPAR2 LPAR3
EtherChannel
Backup
PE PE
VE
1
VE
VE
VE
Node1
1
1
2
PE
Virtual Switch
POWER Hypervisor
External Switch
27
External Switch
© 2013 IBM Corporation
IBM Power Systems
SEA 高可用性構成 (2) - VIOSの二重化 (SEA Failover)
– VIOS 区画を二重化
• VIOS が提供する SEA Failover 機能を使用する構成
優先度の低いSEAをブロック
Power Systems
VIOS1
LPAR1 LPAR2
VIOS2
SEA
SEA
PE
VE
VE
VE
VE
VE VE
PE
Node1
1
2
1
1
2 1
PE
Virtual Switch
POWER Hypervisor
External Switch
28
External Switch
ハートビートのためのコントロール・チャネル
© 2013 IBM Corporation
IBM Power Systems
SEA 高可用性構成 (3) - VIOSの二重化 (SEA-NIB)
– VIOS 区画を二重化
• 各 VIOS で別の SEA を構成し、VIO クライアント上で EtherChannel Backup を構成
Power Systems
PE: 物理イーサネット・アダプター
VE: 仮想イーサネット・アダプター
VIOS1
SEA
PE
LPAR1 LPAR2
EtherChannel
Backup
EtherChannel
Backup
VE VE
VE VE
VE
VIOS2
SEA
VE
PE
Node1
1
1 2
1 2
2
PE
Virtual Switch
POWER Hypervisor
External Switch
29
External Switch
© 2013 IBM Corporation
IBM Power Systems
VIOS 二重化構成における片側 VIOS 停止時の動作
SEA Failover
プライマリーの VIOS が停止した場合、直ちにセ
カンダリーの VIOS に引き継ぐ
EtherChannel Backup (NIB) の ping 検知により、
使用する Virtual Ethernet を切り替え、経由する
VIOS を変更
プライマリーの VIOS が復旧すると、直ちに切り
戻しが発生する
EtherChannel Backup (NIB) は ping 検知で切り替
わっているため、VIOS が復旧しても、プライマリー経
路には切り戻らない
停止時
復旧時
30
SEA-NIB
切り戻す場合は EtherChannel Backup の強制
Failover を実施
© 2013 IBM Corporation
IBM Power Systems
VIOS 二重化構成における SEA 可用性の比較
SEA Failover
VIOS 間で同じ VLAN ID の SEA を作成
SEA-NIB
VIOS 毎に異なる VLAN ID の SEA を作成
コントロールチャネルとなる VE を作成
VIOSの設定
VIO クライアント
区画の設定
障害対応
Trunk Priority, ha_mode, ctl_chanの設定が
必要
SEA と同じ VLAN ID の VE を作成
異なる VLAN ID の VE 間で NIB を構成
(pingオプションが必須)
SEA のリンクダウン検知は瞬時に切替
SEA のリンクダウンを検知しない
Primary VIOS 停止時は瞬断が発生
障害復旧後は自動フェイルバック
筐体外部への ping 疎通確認による障害検知のため、
時間がかかる
障害復旧後もフェイルバックしない
サポート有り
サポートなし
Tagged VLAN
負荷分散
SEA Failover with Load Sharing 機能* を利用 クライアント毎にプライマリで利用する VIOS を選択可
することで、複数VLANが構成されている場合、
能
VLAN毎に負荷分散が可能
*VIOS V2.2.1.0 以降 で提供
運用の容易性の観点より SEA Failover を推奨
31
© 2013 IBM Corporation
IBM Power Systems
ディスクの冗長化
32
© 2013 IBM Corporation
IBM Power Systems
Virtual SCSI 高可用性構成 (1) - ディスクの二重化
Power Systems
VIOS
LPAR1
LVM
SAS
Physical
Disk
Physical
Disk
Logical
Volume
Logical
Volume
Logical
Volume
Logical
Volume
VTD
VSCSI
VTD
vhost
LVM
Mirror
hdisk0 hdisk1
vscsi
POWER Hypervisor
※ LV-PV / PV-PV どちらでも可
33
© 2013 IBM Corporation
IBM Power Systems
Virtual SCSI 高可用性構成 (2) - VIOSの二重化(MPIO)
Power Systems
Virtual I/O Server 1
LPAR1
Virtual I/O Server 2
LVM
LVM
hdisk
hdisk
hdisk
VSCSI
VTD
FC
FC
vhost
MPIO
vscsi
vscsi
VSCSI
VTD
vhost
FC FC
POWER Hypervisor
SAN Switch
SAN Switch
Physical Disks
(Fibre Attached)
34
※ PV-PV のみ
© 2013 IBM Corporation
IBM Power Systems
Virtual SCSI 高可用性構成 (3) - VIOSの二重化 (LVM ミラー)
Power Systems
LPAR1
VIOS1
LVM
VIOS2
LVM
LVM
Mirror
Logical
Volume
Logical
Volume
SAS
Physical
Disks
VSCSI
VTD
hdisk0 hdisk1
VSCSI
VTD
vhost
vscsi0 vscsi1
vhost
POWER Hypervisor
SAS
Physical
Disks
※ LV-PV / PV-PV どちらでも可
35
© 2013 IBM Corporation
IBM Power Systems
VIOS二重化構成での片側VIOS停止時の挙動
MPIO
停止時
LVM ミラー
パスのプライオリティーに従ってセカンダリーパ
スに移動
AIX 上でミラーリングが Stale となり、hdiskが
missing の状態になる
Primary パスが復旧したことを検知して自動的
にパスの切り戻しが発生
・ミラーの Stale 及び hdisk の missing は自動復
旧しない
・ミラー障害のディスクに対してvaryonvg を実行す
ることで復旧
復旧時
(# varyonvg rootvg など)
(unmirrorvg と mirrorvg を再度実行する必要は無
い)
・varyonvg を実行する際に、アクセス不可の hdisk
上にあるシステム・ダンプ領域の変更が必要
36
© 2013 IBM Corporation
IBM Power Systems
VIOS二重化における Virtual SCSI 高可用性構成の比較
MPIO
ディスクの種類
データの冗長化
ディスク・サイズ
ディスク・
SAN 接続の外部ストレージ
LVM ミラー
ディスクの種類を問わない
Power の内蔵ディスクも使用可能
ストレージ・サブシステムの機能で実施
LVM ミラーによるRAID1構成
RAID構成の種類は問わない
LUNサイズとしては必要容量と同じ
必要サイズの2倍必要
PV-PV マッピングのみ
LV-PV マッピング
PV-PV マッピング
マッピング
VIOS停止後の戻し 特になし。パスの回復を確認
作業
varyonvg の実行
SAN 接続の外部ディスクがある場合は MPIO 構成を推奨
37
© 2013 IBM Corporation
IBM Power Systems
Virtual I/O Server 活用のメリット
38
© 2013 IBM Corporation
IBM Power Systems
システム・リソースの有効活用
 VIOS を構成しない場合
– I/O 負荷の低い LPAR にも物理アダプターの割り当てが必要
• Fibre Channel アダプターや Ethernet アダプターをアダプター単位での割り当て
– LPAR 数の増加に比例して必要な PCI (I/O) スロット数が増加
• Power Systems 本体が提供するスロット数で不足の場合、I/O ドロワー等の追加が必要
• システムを搭載するために必要な EIA 数が増加し、ラック・スペースに影響
 VIOS を構成する場合
– 物理アダプターを複数 LPAR で共有可能
• 大きな帯域が不要な LPAR 間で、広帯域を提供するアダプターを共有する
• アダプター数の削減に伴って、スイッチのポート数削減やケーブル数の削減も可能
– 複数 LPAR でアダプターを共有し、PCI (I/O) スロット数を削減可能
• システムを搭載するために必要な EIA 数を抑え、TCO 削減に寄与
•I/O アダプターの使用効率を高め、トータルのI/O アダプター数や拡張筐体数を削減
•筐体数の削減による、スペース、電力、空調、管理運用のコストの削減
39
© 2013 IBM Corporation
IBM Power Systems
構成の柔軟性・拡張性が向上
 VIOS を構成しない場合
クラウド環境の
提供に最適
– LPAR 追加の際には物理アダプターの割り当てが必要
•
筐体内に空きアダプターが無い場合は物理的な追加が必要
 VIOS を構成する場合
– 物理アダプターを追加せずに LPAR を追加可能
•
•
新規LPARを
容易に追加可能
リソース・プールとしての機能を提供
今後想定される様々な需要に応じて LPAR を追加可能 (即応性)
物理
ネットワーク
a5
a4
物理ディスク
a3
物理ディスク
a2
物理ディスク
a1
VIOS
イーサネット
アダプター
(共有)
ファイバー
チャネル
アダプター
(共有)
LPAR #01
AIX V6.1
ブリッジ
LPAR #02
Linux
LPAR #03
AIX V7.1
a5
a2
a3
仮想
SCSI
アダプター
仮想
イーサネット
アダプター
物理ディスク
物理ディスク
a1
仮想
SCSI
a4
仮想
Ether
仮想
SCSI
仮想
Ether
仮想
SCSI
仮想
Ether
仮想 イーサネット
仮想 SCSI
POWER Hypervisor
•LPAR や プロセッサー仮想の機能と組み合わせ、サーバーの追加が短期間かつ低コストで可能
40
© 2013 IBM Corporation
IBM Power Systems
システムの可用性・信頼性が向上(LPMの活用)
Live Partition Mobility (LPM)
 LPMを利用しない場合
– 筐体内のリソース不足に対応不可能
– システムの移行作業が困難
– H/Wメンテナンスの場合、システム停止が必要
 LPM を利用する場合
VIOS
– ビジネスの継続性が向上
•
複数サーバー間でLPARワークロードを柔軟に分散や移動で
きる為、不測の負荷向上にも対応可能
– 容易なシステム移行
•
サーバー移行の際にも、LPMによりOS導入等の手間を掛け
ないスマートな移行が可能
SAN
– サービス管理の容易化
•
計画保守時にLPARを移動させておくことでサービス停止を
回避可能
•論理区画の瞬間移動により、計画停止さえも削減。
•筐体の交換・更新作業も、アプリケーションを無停止で実現可能。
※Live Partition Mobility(LPM)の詳細は、参考資料を参照下さい。
41
© 2013 IBM Corporation
IBM Power Systems
VIOS概要のまとめ
42
© 2013 IBM Corporation
IBM Power Systems
まとめ
 VIOSはVirtual I/O を実行するための専用オペレーティング・システム
– AIX をベースとしてカスタマイズされた OS イメージ
– SEA / Virtual SCSI / Virtual FibreChannel (NPIV) を使用する場合に必須
 VIOSは冗長化が可能
– 冗長構成の必要性
• VIOS は I/O を集約した区画となるため、VIOS 自身が冗長構成されていない場合、単一
障害点となり、障害時にはサーバー全体に与える影響が大きい
• このため、VIOS を構成する場合には、同一筐体内で VIOS を二重化することが強く推奨
– 主に用いられる構成
• ネットワーク:SEA Failover
• ディスク:MPIO
43
© 2013 IBM Corporation
IBM Power Systems
VIOSパフォーマンス
44
© 2013 IBM Corporation
IBM Power Systems
テスト目的
45
© 2013 IBM Corporation
IBM Power Systems
テスト目的
 仮想アダプター構成時の Virtual I/O Server に必要な Processing Unit
(PU) 値のおおよその見積りデータを取得する
– 1Gb イーサネット・アダプターを使用した SEA 構成時の VIOS の CPU 使用量の
まとめ
– 10Gb イーサネット・アダプターを使用した SEA 構成時の VIOS の CPU 使用量の
まとめ
– Virtual SCSI におけるスループットと VIOS の CPU 使用量のまとめ
ご注意:
測定結果は Power Systems ならびにディスクのピーク性能を示すものではありません。
46
© 2013 IBM Corporation
IBM Power Systems
テスト環境
47
© 2013 IBM Corporation
IBM Power Systems
テスト環境
VIOS 冗長構成:
- SEA: SEA Failover 構成
- Virtual SCSI: MPIO 構成
(VIOS #1がプライマリ)
 4つの LPAR が VIOS 経由で外部接続
– VIOS 区画のイーサネットおよび FC アダプターを、複数の
LPAR (VIOC) が共有して使用
物理Ether: 1Gbps Ethernet adapter / 10Gbps Ethernet adapter
物理Fibre: 8Gbps FC adapter
Power System サーバー (Power 795)
VIOS #1
LPAR #1
LPAR #2
LPAR #3
LPAR #4
VIOS #2
1.0PU(*)
4core
4core
4core
4core
1.0PU(*)
Shared
/
Dedicated
/
Dedicated/
Dedicated
/
Dedicated/
Shared /
物理
物理
SEA
SEA Ether
4GB Memory 4GB Memory 4GB Memory 4GB Memory 4GB Memory
Ether4GB Memory
物理
Fibre VTD
仮想
SCSI
物理
Fibre
VTD
仮想
Ether
仮想
SCSI
仮想
Ether
仮想
SCSI
仮想
Ether
仮想
SCSI
仮想
Ether
仮想
SCSI
仮想
Ether
仮想
SCSI
仮想
Ether
POWER Hypervisor
Ethernet Switch
SAN Switch
物理
Ether
V7000 ディスク
RAID5
48
通信ターゲットサーバー
*: VIOS区画のPU値はテスト・ケースによって変更
© 2013 IBM Corporation
IBM Power Systems
検証結果と考察
49
© 2013 IBM Corporation
IBM Power Systems
Shared Ethernet Adapter
50
© 2013 IBM Corporation
IBM Power Systems
Shared Ethernet Adapter 検証
 1Gb イーサネット・アダプターを使用した SEA 検証
– ストリーミング系処理
• 単一 LPAR 環境

仮想アダプター環境での largesend オプションの設定による VIOS の CPU 使用量の比較
• 複数 LPAR 環境
 10Gb イーサネット・アダプターを使用した SEA 検証
– ストリーミング系処理
• 単一 LPAR 環境
• 複数LPAR環境
51
© 2013 IBM Corporation
IBM Power Systems
1Gb イーサネット・アダプター検証結果
VIOS #1
LPAR #1
 複数 LPAR によるネットワーク転送
 仮想アダプター接続 (VIOS 経由、largesend: on)
LPAR2
LPAR #4
VIOS #2
Ethernet Switch
通信ターゲットサーバー
SEA の1Gbps Ethernet
Adapter の帯域を使用
Network I/O (仮想)
LPAR1
LPAR #3
POWER Hypervisor
– 4 LPAR から同時に ftp 転送処理を行い、転送速度と VIOS の CPU
使用量を測定
– 送信側は VIOS の SEA 経由のため、トータルで 1Gbps x1 の帯域、
受信側も物理イーサネット・アダプターの 1Gbps x1 の帯域
– ネットワーク帯域を増やすには、SEA および 受信側での対応が必要
4LPAR
スループット(MB/s)
LPAR #2
LPAR3
LPAR4
140
120
MB/s
100
80
60
40
20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:18
13:18
0
Physical CPU - vios1
52
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
VIOSのCPU使用量は
約0.35PU
(largesend:on時)
13:18
VIOS区画:
PU: 1.0、VP: 1
cappedモード
PhysicalCPU
13:18
CPU使用量
VIOS
CPU使用量1.0
© 2013 IBM Corporation
IBM Power Systems
10Gb イーサネット・アダプター検証結果
VIOS #1
 複数 LPAR による ftp ネットワーク転送
 仮想アダプター接続 (VIOS 経由、largesend: on)
LPAR #1
LPAR #2
LPAR #3
LPAR #4
VIOS #2
POWER Hypervisor
– 4 LPAR から同時に転送処理を行い、転送速度とVIOSのCPU 使用量を測定
– 送信側は VIOS の SEA 経由のため、トータルで 10Gbps x1 の帯域、受信側も
物理イーサネット・アダプターの 10Gbps x1 の帯域
– ネットワーク帯域を増やすには、SEA および 受信側での対応が必要
4LPAR
Network MBytes/sec by Time of Day (all nodes)
スループット(MB/s)
LPAR内多重度:1 LPAR内多重度:2 LPAR内多重度:3
Ethernet Switch
通信ターゲットサーバー
LPAR内多重度:4
1200
1000
約 900 MB/s の帯域を使用
MB/s
800
LPAR4
LPAR3
600
LPAR2
LPAR1
400
200
02:29
02:28
02:28
02:28
02:27
02:27
02:27
02:26
02:26
02:26
02:25
02:25
02:24
02:24
02:24
02:23
02:23
02:23
02:22
02:22
02:22
02:21
02:21
02:21
02:20
02:20
02:25
VIOSのCPU使用量は
約1.5PU
(largesend:on時)
02:29
02:28
02:28
02:28
02:28
02:27
02:27
02:27
02:26
02:26
02:26
02:25
02:25
02:25
02:25
02:24
02:24
02:24
02:23
02:23
02:23
02:22
02:22
02:22
02:22
02:21
02:21
02:21
02:20
02:20
02:20
02:19
2.0
1.8
1.6
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0.0
02:19
CPU使用量
PhysicalCPU
02:19
53
02:20
Physical CPU - vios1
VIOS
CPU使用量
VIOS区画:
PU: 2.0、VP: 2
cappedモード
02:19
02:19
0
© 2013 IBM Corporation
IBM Power Systems
Shared Ethernet Adapter サイジングまとめ
 SEA 経由で通信する場合に VIOS の CPU を消費
– LPAR のワークロードに応じた VIOS の CPU リソースを確保する必要がある
• お客様環境の使用帯域 (MB/s)、および転送パケット量 (パケット/秒) に応じて必要リソース
を検討
• ストリーミング系処理の場合、largesend の設定による CPU 使用率の抑制効果が大きい
– 検証結果より
• ftp にて SEA 1Gb イーサネットの帯域を使用する場合の VIOS の CPU 使用量
 largesend off: 約 0.80 PU
 largesend on: 約 0.35 PU
• ftp にて 10Gb イーサネット・アダプターを使用し、約 900MB/s の転送を行う場合の VIOS
の CPU 使用量
 largesend on: 約 1.5 PU
54
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI (Virtual SCSI)
55
© 2013 IBM Corporation
IBM Power Systems
1 VIOC
仮想 SCSI テストケース
4 VIOC
 テスト・ケースは以下のとおり
テスト・ケース1
テスト・ケース2
テスト・ケース3
テスト・ケース4
アクセスタイプ
負荷環境
プロセス多重度
ブロックサイズ
Sequential Read
1 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
4 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
1 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
4 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
1 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
4 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
1 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
4 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
Random Read
Sequential Write
Random Write
 性能測定ツールとして ndisk64 (V7.4) を使用
 負荷測定ツールとして nmon を使用
– グラフ化には nmon analyzer、nmon consolidator を使用
56
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI テスト結果 Random Read (代表点をプロット)
 横軸を VIOC における帯域 (MB/s) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Random Read
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
100
200
300
400
VIOCのRead (MB/s)
500
600
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 横軸を VIOC における転送回数 (IOPS) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Random Read
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
57
1000
2000
VIOCのRead (IOPS)
3000
4000
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 VIOSのCPU使用量は
MB/sにもIOPSにも、おお
よそ比例
 ブロックサイズ毎に異なる
傾き
 たとえばブロックサイズ
512KBの場合では、約
500MB/sのデータ読み込
みにおいて、約0.3PUの
CPUを使用
 たとえばブロックサイズ
4KBの場合では、約
3,500IOPSのデータ読み
込みにおいて、約0.2PU
のCPUを使用
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI テスト結果 Random Write (代表点をプロット)
 横軸を VIOC における帯域 (MB/s) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Random Write
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
200
400
600
800
1000
VIOCのWrite (MB/s)
1200
1400
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 横軸を VIOC における転送回数 (IOPS) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Random Write
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
58
5000
10000 15000 20000 25000
VIOCのWrite (IOPS)
30000 35000
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 VIOSのCPU使用量は
MB/sにもIOPSにも、おお
よそ比例
 ブロックサイズ毎に異なる
傾き
 たとえばブロックサイズ
512KBの場合では、約
1,100MB/sのデータ書き
込みにおいて、約0.65PU
のCPUを使用
 たとえばブロックサイズ
4KBの場合では、約
30,000IOPSのデータ書
き込みにおいて、約
0.7PUのCPUを使用
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI サイジングまとめ
 ご使用環境(ご提案環境)におけるI/Oタイプとブロックサイズに応じて、今回の結果を
VIOSのサイジング目安としてご活用ください。
 Power Systems や Storage のモデル、アプリケーション等、環境によって結果が多
少変動する可能性はあります。
– Random Read
• VIOSのCPU使用量はMB/sにもIOPSにもおおよそ比例
• ブロックサイズ毎に異なる傾き
 ブロックサイズ512KBの場合では、約500MB/sの読み込みにおいて、約0.3puのCPUを使用
 ブロックサイズ4KBの場合では、約3,500IO/sの読み込みにおいて、約0.2puのCPUを使用
– Random Write
• VIOSのCPU使用量はMB/sにもIOPSにもおおよそ比例
• ブロックサイズ毎に異なる傾き
 ブロックサイズ512KBの場合では、約1,100MB/sの書き込みにおいて、約0.65puのCPUを使用
 ブロックサイズ4KBの場合では、約30,000IO/sの書き込みにおいて、約0.7puのCPUを使用
59
© 2013 IBM Corporation
IBM Power Systems
VIOSパフォーマンス まとめ
60
© 2013 IBM Corporation
IBM Power Systems
VIOS パフォーマンスまとめ
 VIOSのパフォーマンス
– LPAR が VIOS を介して I/O を行う場合に、VIOS の CPU を消費
• LPAR のワークロードに応じた VIOS の CPU リソースを確保する必要がある
• VIOS を経由するネットワーク・アクセスおよびストレージ・アクセスに必要な CPU リソー
スをトータルで見積もる
例) 1つの VIOS 区画を介するネットワークとストレージのI/Oに、それぞれ下記 CPU リ
ソースが必要と見積もられる場合
 ネットワーク(SEA):1Gb イーサネット・アダプターの帯域を使用 → 0.35PU
 ストレージ(vSCSI): ブロックサイズ4KB のRandom Read 約3,500IO/s → 約0.2PU
⇒ トータルで、0.55PU が必要
– 突発的な I/O 負荷に柔軟に対応できるように uncapped モードの利用を検討
61
© 2013 IBM Corporation
IBM Power Systems
VIOS構築事例
62
© 2013 IBM Corporation
IBM Power Systems
構成事例:某製造業様(ネットワーク構成)
VIOS
LPARS VIOS
LPARS
LPARS
#1
#2
VIOS
LPARS VIOS
LPARS
LPARS
#1
#2
FSP
FSP
Power740 #1
VIOS
LPARS VIOS
LPARS
LPARS
#1
#2
FSP
Power740 #2
Power740 #3
HMCセグメント
NIM
63
HMC #1
© 2013 IBM Corporation
IBM Power Systems
Power740 構成案
Power740 #1
CPU:Power7 3.7GHz x 6
Memory:64GB
64
LPAR Name
# of
CPU
# of
VP
Mem
(GB)
2Port
FC
4Port
NIC
LPAR#1
0.2
1
1
LPAR#2
1
1
10
LPAR#3
0.3
1
1
LPAR#4
0.4
1
8
LPAR#5
0.1
1
4
LPAR#6
0.2
1
4
LPAR#7
0.4
1
9
予備
2.4
VIOS #1
0.5
1
2
2
5
VIOS #2
0.5
1
2
2
5
合計
6
N/A
64
8
10
23
© 2013 IBM Corporation
IBM Power Systems
GUI による PowerVM I/O
仮想化環境構築デモ
65
© 2013 IBM Corporation
IBM Power Systems
GUI による PowerVM I/O 仮想化環境構築 デモ
 従来では VIOS の構成は HMC からの構成と VIOS でのコマンドラインの構成が必要でした
 現行の VIOS では推奨される冗長構成であっても、HMC の GUI 操作のみで基本的な構成が可
能です
・” GUI による PowerVM I/O 仮想化環境 構築” より抜粋
http://www-06.ibm.com/systems/jp/power/techinfo/aix/pdf/vios_gui.pdf
66
© 2013 IBM Corporation
IBM Power Systems
デモでご紹介する仮想 I/O 構築の機能
 本デモでは、従来 CLI でしか構成できなかったステップを実機でのデモにてご覧いただきます
11VIOS
VIOSおよびVIOC区画への仮想イーサネット・アダプター構成
およびVIOC区画への仮想イーサネット・アダプター構成
22VIOS
VIOS区画の再起動
区画の再起動
33Shared
SharedEthernet
EthernetAdapter
Adapter(SEA)
(SEA) の設定
の設定
1.1.VIOSおよびVIOC区画への仮想SCSIアダプター構成
VIOSおよびVIOC区画への仮想SCSIアダプター構成
2.2.VIOS区画の再起動
VIOS区画の再起動
3.3.仮想ターゲットデバイス(Virtual
仮想ターゲットデバイス(VirtualTarget
Targetdevice(VTD))の設定
device(VTD))の設定
・”Virtual I/O Server (VIOS) 初めての構築” より抜粋
http://www-06.ibm.com/systems/jp/power/techinfo/aix/pdf/VIOS_V2.2.1_Installation_20120330_V1.0.pdf
67
© 2013 IBM Corporation
IBM Power Systems
(参考)ハードウェアおよび VIOS 環境
 当デモは下記の環境で構成しております
– HMC
7042-CR7
Version: 7 Release: 7.6.0 Service Pack: 1
– サーバー
9119-FHB (Power 795)
AH760_043
– VIOS
VIOS V2.2.2.2
 HMC GUI による SEA 作成・VTD マッピング・仮想 FC と物理 FC マッピング
は、作業対象 LPAR-HMC 間のネットワーク疎通が前提です。当デモ環境に
おいても、LPAR-HMC 通信用ネットワークを設けています
68
© 2013 IBM Corporation
IBM Power Systems
デモ環境 ネットワーク
 下図がデモ環境のネットワーク構成です
 仮想イーサネットの構成では、SEA を HMC の GUI から構成可能です
 オプションで SEA Failover 構成も選択することが可能です
VIOS#1 (p7950008)
VIOC
(p7950003)
SEA
ent7
PE
ent1
VIOS#2 (p7950009)
SEA
ent7
VE
ent5
Prty:1
VE
ent6
(cont)
VE
ent1
VE
ent6
(cont)
VE
ent5
Prty:2
VLAN ID
100
VLAN ID
110
VLAN ID
100
VLAN ID
110
VLAN ID
100
Virtual Switch
PE
ent1
Control Channel (keep alive)
POWER Hypervisor
External Switch
69
External Switch
図のスペース制約から、SEA Failover構成におけるSEAの優先順位設定(Priority)を“Prty”と記載しています。
また、コントロール・チャネルを“(cont)”と記載しています。
© 2013 IBM Corporation
IBM Power Systems
デモ環境 外部ストレージ
 下図がデモ環境の外部ストレージ構成です
 仮想 SCSI の構成では、VTD を HMC の GUI から作成可能です
VTD
vhost1
vscsi3
vscsi2
hdisk2
hdisk3
MultiPath
Fibre
VTD
vhost1
hdisk3
Fibre
Fibre
MultiPath
VIOS#2 (p7950009)
VIOC (p7950003)
Fibre
VIOS#1 (p7950008)
POWER Hypervisor
SAN Switch
LUN
SAN Switch
SAN Storage
70
© 2013 IBM Corporation
IBM Power Systems
当コースのまとめ
71
© 2013 IBM Corporation
IBM Power Systems
まとめ
 VIOSはPowerVM環境でIOを仮想化統合する際に用いられる
– ネットワーク、ディスク環境
 VIOSは冗長構成が可能
– IOが統合化されても高信頼性を提供
 VIOSのCPU負荷は概ねIOの転送量に比例する
– GBitEtherx1、ブロックサイズ4kで3500IOPS程度のDiskを用いる際、0.55PU前後
のリソースが必要
 PowerVM I/Oの仮想化はGUI環境でも実施できる
72
© 2013 IBM Corporation
IBM Power Systems
73
© 2013 IBM Corporation
IBM Power Systems
参考:検証内容詳細
74
© 2013 IBM Corporation
IBM Power Systems
1Gb イーサネット・アダプター 検証
 テスト環境
– VIOS区画: PU:1.0, VP:1 (capped)
– ソフトウェア
• VIOS 区画: VIOS V2.2.1.3
• VIOC 区画: AIX V7.1 (7100-01-03-1207)
– VIOS の SEA アダプターとして下記アダプターを使用
• 1Gbps イーサネット・アダプター
– MTU size: 1500 (固定)
 テスト・ツール
– ネットワークの負荷掛けに ftp コマンドを使用
• ftp コマンド (2GB 転送)
 put "| dd if=/dev/zero bs=1024k count=2000" /dev/null
 入力として /dev/zero、出力として /dev/null を使用
75
© 2013 IBM Corporation
IBM Power Systems
1Gb イーサネット・アダプター検証結果
VIOS #1
LPAR #1
 単一 LPAR による ftp ネットワーク転送
 仮想アダプター接続 (VIOS 経由、largesend: off)
LPAR #2
LPAR #3
LPAR #4
VIOS #2
POWER Hypervisor
Ethernet Switch
通信ターゲットサーバー
– SEA を使用する場合、VIOS のCPU を消費
• 1Gbps の帯域を使用する場合、VIOS の CPU 使用量は、約 0.8PU (largesend: off)
Network I/O (仮想)
LPAR1
スループット (MB/s)
SEA (1Gb) の帯域をフル
に使用
LPAR1
140 LPAR内多重度:1
LPAR内多重度:3
LPAR内多重度:2
LPAR内多重度:4
120
MB/s
100
80
60
40
20
12:10
12:09
12:09
12:09
12:09
12:09
12:09
12:08
12:08
12:08
12:08
12:08
12:08
12:07
12:07
12:07
12:07
12:07
12:07
12:06
12:06
12:06
12:06
12:06
12:06
12:05
12:05
12:05
12:05
12:05
12:05
12:04
0
SEA (1Gb) の帯域をフルに使用す
る場合、VIOSは約0.8PU使用
(largesend: off)
Physical CPU - vios1
PhysicalCPU
76
12:10
12:09
12:09
12:09
12:09
12:09
12:09
12:08
12:08
12:08
12:08
12:08
12:08
12:07
12:07
12:07
12:07
12:07
12:07
12:06
12:06
12:06
12:06
12:06
12:06
12:05
12:05
12:05
12:05
12:05
12:05
VIOS区画:
PU: 1.0、VP: 1
cappedモード
1.0
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
12:04
CPU使用量
VIOS
CPU使用量
© 2013 IBM Corporation
IBM Power Systems
1Gb イーサネット・アダプター検証結果
VIOS #1
 単一 LPAR による ftp ネットワーク転送
 仮想アダプター接続 (VIOS 経由、largesend: on)
LPAR #1
LPAR #2
LPAR #3
LPAR #4
VIOS #2
POWER Hypervisor
Ethernet Switch
通信ターゲットサーバー
– SEA を使用する場合、VIOS のCPU を消費
• 1Gbps の帯域を使用する場合、VIOS の CPU 使用量は、約 0.35PU (largesend: on)
• largesend を有効にすることにより、CPU 使用量を低く抑えることが可能
Network I/O (仮想)
SEA (1Gb) の帯域をフル
に使用
LPAR1
LPAR1
スループット (MB/s)
140LPAR内多重度:1
LPAR内多重度:3
LPAR内多重度:2
LPAR内多重度:4
120
MB/s
100
80
60
40
20
12:55
12:55
12:55
12:55
12:55
12:55
12:54
12:54
12:54
12:54
12:54
12:54
12:53
12:53
12:53
12:53
12:53
12:53
12:52
12:52
12:52
12:52
12:52
12:52
12:51
12:51
12:51
12:51
12:51
12:51
12:50
12:50
12:50
0
Physical CPU - vios1
12:55
12:55
12:55
12:55
12:54
12:54
12:54
12:54
12:54
12:54
12:53
12:53
12:53
12:53
12:53
12:53
12:52
12:52
12:52
12:52
12:52
12:52
12:51
12:51
12:51
12:51
12:51
12:51
12:50
12:50
12:50
77
CPU使用量
VIOS区画:
PU: 1.0、VP: 1
cappedモード
SEA (1Gb) の帯域をフルに使用す
る場合、VIOSは約0.35PU使用
largesend の設定によりCPU使用
量に大きく影響
PhysicalCPU
1.0
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
12:55
VIOS
CPU使用量
© 2013 IBM Corporation
IBM Power Systems
(参考) largesend オプション
 largesend オプション
– TCP 大量送信機能 (セグメンテーション・オフロードとも呼ばれる) を使用可能にす
るオプション
 設定方法
– VIOS の SEA、VIOC の仮想イーサネット・アダプターは、デフォルトで無効
– 有効にするには、VIOS、VIOC それぞれにおいて設定
• VIOS での設定
 SEA の largesend 属性により設定
» 例) $ chdev -dev entX -attr largesend=1
• VIOC (AIX) では次の何れかの方法で設定
 仮想イーサネット・インターフェースの mtu_bypass 属性により設定
» AIX 6.1 TL7 SP1 以降、または AIX 7.1 TL1 SP1 以降
» 例) # chdev -l enY -a mtu_bypass=on
 仮想イーサネット・インターフェースに対し ifconfig コマンドにより設定
» 例) # ifconfig enY largesend
» ifconfig コマンドによる変更はリブート時に無効になるため、リブート後も有効にす
るには、起動時に実施されるスクリプトなどで設定する
78
© 2013 IBM Corporation
IBM Power Systems
1Gb イーサネット・アダプター検証結果
VIOS #1
LPAR #1
 複数 LPAR によるネットワーク転送
 仮想アダプター接続 (VIOS 経由、largesend: on)
LPAR2
LPAR #4
VIOS #2
Ethernet Switch
通信ターゲットサーバー
SEA の1Gbps Ethernet
Adapter の帯域を使用
Network I/O (仮想)
LPAR1
LPAR #3
POWER Hypervisor
– 4 LPAR から同時に ftp 転送処理を行い、転送速度と VIOS の CPU
使用量を測定
– 送信側は VIOS の SEA 経由のため、トータルで 1Gbps x1 の帯域、
受信側も物理イーサネット・アダプターの 1Gbps x1 の帯域
– ネットワーク帯域を増やすには、SEA および 受信側での対応が必要
4LPAR
スループット(MB/s)
LPAR #2
LPAR3
LPAR4
140
120
MB/s
100
80
60
40
20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:18
13:18
0
Physical CPU - vios1
79
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:20
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
13:19
VIOSのCPU使用量は
約0.35PU
(largesend:on時)
13:18
VIOS区画:
PU: 1.0、VP: 1
cappedモード
PhysicalCPU
13:18
CPU使用量
VIOS
CPU使用量1.0
© 2013 IBM Corporation
IBM Power Systems
10Gb イーサネット・アダプター テスト環境
 テスト環境
– VIOS区画: PU:2.0, VP:2 (capped) (*1)
– ソフトウェア
• VIOS 区画: VIOS V2.2.2.2
• VIOC 区画: AIX V7.1 (7100-02-02-1316)
– VIOS の SEA アダプターとして下記アダプターを使用
• 10Gb イーサネット SR アダプター
– MTU size: 1500 (固定)
– largesend: on (VIOS、VIOC ともに固定)
 テスト・ツール
– ストリーミング系処理の負荷掛け
• ftp コマンド (10GB 転送)


put "| dd if=/dev/zero bs=1024k count=10000" /dev/null
入力として /dev/zero、出力として /dev/null を使用
– トランザクション系処理の負荷掛け
• netperf (*2)

80
*1: VIOS区画のPU値はテスト・ケースによって変更
# netperf -l 120 -H TARGET_HOST -t TCP_RR -D 2 -- -r 200,100 *2: http://www.netperf.org/netperf/
» TCP 要求/応答 タイプのワークロードを実行
» 要求サイズ:200B、応答サイズ:100B
© 2013 IBM Corporation
IBM Power Systems
10Gb イーサネット・アダプター ストリーミング系処理
VIOS #1
 単一 LPAR による ftp ネットワーク転送
 仮想アダプター接続 (VIOS 経由、largesend: on)
LPAR #1
LPAR #2
LPAR #3
LPAR #4
VIOS #2
POWER Hypervisor
– SEA を使用する場合、VIOS のCPU を消費
Ethernet Switch
通信ターゲットサーバー
• 2.0 PU capped
• 約 900MB/s の帯域を使用する場合、VIOS の CPU 使用量は、約 1.5PU (largesend: on)
Network I/O (仮想)
LPAR1
LPAR1
スループット (MB/s)
LPAR内多重度:1
1200
LPAR内多重度:3
LPAR内多重度:2
約 900 MB/s の帯域を使用
LPAR内多重度:4
1000
MB/s
800
600
400
200
02:01
02:01
02:01
02:01
02:01
02:01
02:00
02:00
02:00
02:00
02:00
02:00
02:00
01:59
01:59
01:59
01:59
01:59
01:59
01:59
01:59
01:58
01:58
01:58
01:58
01:58
01:58
01:58
01:57
01:57
01:57
01:57
0
Physical CPU - vios1
VIOS
CPU使用量
81
VIOSのCPU使用量は
約1.4 PU
(largesend:on時)
02:01
02:01
02:01
02:01
02:01
02:01
02:00
02:00
02:00
02:00
02:00
02:00
02:00
02:00
01:59
01:59
01:59
01:59
01:59
01:59
01:59
01:58
01:58
01:58
01:58
01:58
01:58
01:58
01:58
01:57
01:57
2.0
1.8
1.6
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0.0
01:57
CPU使用量
VIOS区画:
PU: 2.0、VP: 2
cappedモード
PhysicalCPU
© 2013 IBM Corporation
IBM Power Systems
10Gb イーサネット・アダプター ストリーミング系処理 (複数区画)
VIOS #1
 複数 LPAR による ftp ネットワーク転送
 仮想アダプター接続 (VIOS 経由、largesend: on)
LPAR #1
LPAR #2
LPAR #3
LPAR #4
VIOS #2
POWER Hypervisor
– 4 LPAR から同時に転送処理を行い、転送速度とVIOSのCPU 使用量を測定
– 送信側は VIOS の SEA 経由のため、トータルで 10Gbps x1 の帯域、受信側も
物理イーサネット・アダプターの 10Gbps x1 の帯域
– ネットワーク帯域を増やすには、SEA および 受信側での対応が必要
4LPAR
Network MBytes/sec by Time of Day (all nodes)
スループット(MB/s)
LPAR内多重度:1 LPAR内多重度:2 LPAR内多重度:3
Ethernet Switch
通信ターゲットサーバー
LPAR内多重度:4
1200
1000
約 900 MB/s の帯域を使用
MB/s
800
LPAR4
LPAR3
600
LPAR2
LPAR1
400
200
02:29
02:28
02:28
02:28
02:27
02:27
02:27
02:26
02:26
02:26
02:25
02:25
02:24
02:24
02:24
02:23
02:23
02:23
02:22
02:22
02:22
02:21
02:21
02:21
02:20
02:20
02:25
VIOSのCPU使用量は
約1.5PU
(largesend:on時)
02:29
02:28
02:28
02:28
02:28
02:27
02:27
02:27
02:26
02:26
02:26
02:25
02:25
02:25
02:25
02:24
02:24
02:24
02:23
02:23
02:23
02:22
02:22
02:22
02:22
02:21
02:21
02:21
02:20
02:20
02:20
02:19
2.0
1.8
1.6
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0.0
02:19
CPU使用量
PhysicalCPU
02:19
82
02:20
Physical CPU - vios1
VIOS
CPU使用量
VIOS区画:
PU: 2.0、VP: 2
cappedモード
02:19
02:19
0
© 2013 IBM Corporation
IBM Power Systems
10Gb イーサネット・アダプター トランザクション系処理 (複数区画)
VIOS #1
LPAR #1
LPAR #2
 複数LPAR によるネットワーク転送
 仮想アダプター接続 (VIOS 経由、largesend: on)
LPAR #4
VIOS #2
POWER Hypervisor
– 4 LPAR からnetperfを使用して同時に送受信を行い、パケット転送量とVIOSのCPU
使用量を測定
– スループットがアダプターの帯域に達していなくても、大量のパケットを処理する場合、
VIOSのCPUリソースを消費する
– 送受信 計約160,000パケット/秒 で、約2.8PU使用
4LPAR
4LPAR
約
25
MB/s
の帯域を使用
パケット転送量
(パケット/秒)
スループット (MB/s)
Network MBytes/sec by Time of Day (all nodes)
30
LPAR #3
Ethernet Switch
通信ターゲットサーバー
約 160,000パケット/秒 転送
Network Packets/sec by Time of Day (all nodes)
LPAR内多重度:1 LPAR内多重度:2 LPAR内多重度:3 LPAR内多重度:4
180000
LPAR内多重度:1 LPAR内多重度:2 LPAR内多重度:3 LPAR内多重度:4
160000
25
140000
120000
パケット/s
MB/s
20
LPAR4
LPAR3
15
LPAR2
LPAR1
LPAR4
100000
LPAR3
LPAR2
80000
LPAR1
10
60000
40000
5
20000
12:04
12:04
12:03
12:03
12:03
12:02
12:02
12:02
12:01
12:01
12:01
12:00
12:00
12:00
11:59
11:59
11:59
11:58
11:58
11:58
11:57
11:57
11:57
11:56
11:56
11:56
11:55
11:55
11:55
11:54
11:54
11:54
12:04
12:04
12:03
12:03
12:03
12:02
12:02
12:02
12:01
12:01
12:01
12:00
12:00
12:00
11:59
11:59
11:59
11:58
11:58
11:58
11:57
11:57
11:57
11:56
11:56
11:56
11:55
11:55
11:55
11:54
11:54
0
11:54
0
Physical CPU vs Entitlement - vios1
PhysicalCPU
VIOS
CPU使用量
VIOSのCPU使用量は
約2.8PU
(largesend:on時)
3.5
3.0
CPU使用量
VIOS区画:
PU: 2.0、VP: 4
uncappedモード
entitled
4.0
2.5
2.0
1.5
1.0
0.5
12:04
12:04
12:03
12:03
12:03
12:03
12:03
12:02
12:02
12:02
12:02
12:01
12:01
12:01
12:01
12:00
12:00
12:00
12:00
12:00
11:59
11:59
11:59
11:59
11:58
11:58
11:58
11:58
11:57
11:57
11:57
11:57
11:56
11:56
11:56
11:56
11:56
11:55
11:55
11:55
11:55
11:54
11:54
11:54
11:54
0.0
83
© 2013 IBM Corporation
IBM Power Systems
Shared Ethernet Adapter サイジングまとめ
 SEA 経由で通信する場合に VIOS の CPU を消費
– LPAR のワークロードに応じた VIOS の CPU リソースを確保する必要がある
• お客様環境の使用帯域 (MB/s)、および転送パケット量 (パケット/秒) に応じて必要リソース
を検討
• ストリーミング系処理の場合、largesend の設定による CPU 使用率の抑制効果が大きい
• トランザクション系処理の場合、帯域だけでなく、転送パケット数にも考慮が必要
– 検証結果より
• ftp にて SEA 1Gb イーサネットの帯域を使用する場合の VIOS の CPU 使用量
 largesend off: 約 0.80 PU
 largesend on: 約 0.35 PU
• ftp にて 10Gb イーサネット・アダプターを使用し、約 900MB/s の転送を行う場合の VIOS
の CPU 使用量
 largesend on: 約 1.5 PU
• netperf にて SEA 10Gbイーサネット・アダプターを使用する場合の VIOS の CPU 使用量
 送受信 計約 16万 パケット/秒 の転送時: 約 2.8 PU
84
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI (Virtual SCSI)
85
© 2013 IBM Corporation
IBM Power Systems
1 VIOC
仮想 SCSI テストケース
4 VIOC
 テスト・ケースは以下のとおり
テスト・ケース1
テスト・ケース2
テスト・ケース3
テスト・ケース4
アクセスタイプ
負荷環境
プロセス多重度
ブロックサイズ
Sequential Read
1 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
4 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
1 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
4 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
1 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
4 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
1 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
4 VIOC
1/2/4
4KB / 8KB / 16KB / 32KB / 64KB /
128KB / 256KB / 512KB
Random Read
Sequential Write
Random Write
 性能測定ツールとして ndisk64 (V7.4) を使用
 負荷測定ツールとして nmon を使用
– グラフ化には nmon analyzer、nmon consolidator を使用
86
© 2013 IBM Corporation
IBM Power Systems
(参考) ndisk64 ツール
 DISK に対して、特定のアクセス・パターンの負荷をかけるツール
 nstress
(https://www.ibm.com/developerworks/community/wikis/home?lang=en#!/
wiki/Power%20Systems/page/nstress) に含まれる 負荷テスト・ツールの一つ
 主要なオプションは以下のとおり
-S
-R
-t <secs>
-F <file>
-M <num>
-s <size>
-r <read%>
-b <size>
-q
Sequential Disk I/O test (file or raw device)
Random Disk I/O test (file or raw device)
Timed duration of the test in seconds (default 5)
<file> contains list of filenames, one per line (upto 2047 files)
Multiple processes used to generate I/O
file Size, use with K, M or G (mandatory for raw device)
Read percent min=0,max=100 (default 80 =80%read+20%write)
Block size, use with K, M or G (default 4KB)
flush file to disk after each write (fsync())
 今回使用したパラメーターは以下のとおり
ndisk64 -F LIST [-S (sequential) | -R (random)] [-r100 (read 100%) | -r0 (write 100%)]
-b [4k, 8k, 16k, 32k, 64k, 128k, 256k, 512k] -s 8G -t 60 -M [1, 2, 4多重] –q
87
© 2013 IBM Corporation
IBM Power Systems
このページはブランクです
88
© 2013 IBM Corporation
89
32KB
256KB
32KB
256KB
4KB
4KB
8KB
64KB
8KB
64KB
512KB
512KB
16KB
128KB
16KB
128KB
20:04
20:06
entitled
20:03
20:04
20:01
20:03
20:04
19:59
19:55
19:53
19:52
19:50
19:48
19:46
19:44
19:42
19:41
19:39
19:37
20:01
1000
0
19:57
7000
6000
5000
4000
3000
2000
19:59
Disk Transfers/sec by Time of Day (all nodes)
19:57
19:55
19:53
19:52
19:50
19:48
19:46
19:44
19:42
19:41
19:39
19:35
19:33
19:31
2プロセス多重
19:58
20:00
20:01
20:03
PhysicalCPU
19:53
19:55
19:56
1.2
19:48
19:50
19:52
Unfolded VPs
1プロセス多重
19:44
19:45
19:47
Physical CPU vs Entitlement - p795022 2013/01/20
19:39
19:40
19:42
0
19:37
1000
19:30
Disk total KB/s p795031 - 2013/01/20
19:35
Disk total KB/s p795031 - 2013/01/20
19:34
19:36
19:37
2000
19:33
4000
19:31
IO/sec
19:28
0
19:30
200
19:29
19:31
19:32
400
19:26
600
MB/sec
4プロセス多重
1800
1600
1400
1200
1000
800
600
400
200
0
19:28
3000
回/sec
17:16
17:17
Disk Write KB/s
19:26
17:17
17:14
17:16
17:09
17:11
17:12
17:14
2プロセス多重
17:11
17:12
17:06
17:08
17:09
17:03
17:04
17:06
17:08
1VIOC使用
19:26
19:28
1.2
1.0
0.8
0.6
0.4
0.2
0.0
VIOSのCPU使用量
entitled
17:03
17:04
17:00
17:01
16:56
16:58
17:00
17:01
Disk Read KB/s
17:09
17:10
17:12
17:13
17:15
17:17
17:18
PhysicalCPU
16:56
16:58
16:50
16:52
16:53
16:55
1プロセス多重
16:58
16:59
17:01
17:02
17:04
17:06
17:07
VIOS
CPU 使用量
16:52
16:53
16:55
VIOC
転送回数(IOPS)
16:48
16:50
16:44
16:45
16:47
16:48
800
16:45
16:47
16:39
16:40
16:42
KB/sec
千
1000
16:42
16:44
16:39
16:40
回/sec
VIOC
帯域(MB/s)
16:45
16:47
16:48
16:50
16:51
16:53
16:55
16:56
16:39
16:40
16:42
16:44
VIOSのCPU使用量
IBM Power Systems
仮想 SCSI テスト結果① Sequential Read (nmon analyzer出力)
4VIOC使用
Disk MBytes/sec by Time of Day (all nodes)
4プロセス多重
Physical CPU vs Entitlement - p795022 2013/01/20
1.0
Unfolded VPs
0.8
0.6
0.4
0.2
0.0
・・・・・・
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI テスト結果① Sequential Read (代表点をプロット)
 横軸を VIOC における帯域 (MB/s) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Sequential Read
1
0.8
0.6
0.4
0.2
0
0
500
1000
VIOCのRead (MB/s)
1500
2000
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 横軸を VIOC における転送回数 (IOPS) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Sequential Read
1
0.8
0.6
0.4
0.2
0
0
90
1000
2000
3000
4000
5000
VIOCのRead (IOPS)
6000
7000
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 VIOSのCPU使用量は
MB/sにもIOPSにも、おお
よそ比例
 ブロックサイズによらず、
ほとんど同じ傾き
 約1.5GB/sのデータ読み
込みにおいて、約0.8PU
のCPUを使用
 約6,000IOPSのデータ読
み込みにおいて、約
0.8PUのCPUを使用
(考察)ブロックサイズに依存しない理由
ndiskの引数として小さいブロックサイズ
を指定しても、OSの先読み(Read Ahead)
機能によって、前もって大きなブロックと
してReadする。
© 2013 IBM Corporation
91
32KB
256KB
32KB
256KB
4KB
4KB
8KB
64KB
8KB
64KB
512KB
512KB
16KB
128KB
16KB
128KB
PhysicalCPU
entitled
20:48
1.2
20:42
20:44
20:45
20:47
20:44
20:45
20:47
20:38
20:36
20:34
20:33
20:31
20:29
20:27
20:25
20:23
20:40
4000
3500
3000
2500
2000
1500
1000
500
0
20:42
Disk Transfers/sec by Time of Day (all nodes)
20:40
20:38
20:36
20:34
20:33
20:31
20:29
20:27
20:25
20:22
20:20
20:18
20:16
2プロセス多重
20:40
20:42
20:43
20:45
20:46
U nfol ded VPs
1プロセス多重
20:31
20:32
20:34
20:35
20:37
20:39
Physic al CPU vs Enti tleme nt - p795 02 2 2 013 /0 1/2 0
20:23
0
20:23
20:25
20:26
20:28
20:29
20 0
20:22
40 0
20:20
1 00 0
20:14
Disk to tal KB/ s p795 03 1 - 201 3/ 01/ 20
20:18
Disk to tal KB/ s p795 03 1 - 201 3/ 01/ 20
20:16
IO /se c
20:12
0
20:14
50
20:11
600
20:12
60 0
20:09
4プロセス多重
20:11
MB/sec
1 00
20:09
80 0
回/sec
18 :00
1 7:5 8
17: 57
1 7:5 5
17 :54
1 7:5 2
Disk Write KB/s
20:14
20:15
20:17
20:18
20:20
20:21
1 .2
1 .0
0 .8
0 .6
0 .4
0 .2
0 .0
VIOSのCPU使用量
17 :58
1 8:0 0
17: 57
17 :55
17: 54
1 7:5 2
17: 49
17 :50
17: 46
17 :47
1VIOC使用
20:09
20:10
20:12
17 :58
1 8:0 0
17 :55
1 7:5 7
17 :52
1 7:5 4
17: 50
1 7:4 9
17: 46
17 :47
17: 43
1 7:4 4
1 7:4 1
1 7: 39
2プロセス多重
17 :49
1 7:5 0
17 :46
1 7: 47
en titl ed
17: 43
17 :44
1 7:4 1
1 7: 39
17 :36
1 7:3 8
17 :33
17 :3 5
Disk Re ad KB /s
17: 43
1 7:4 4
17: 39
1 7:4 1
Physi calCPU
17 :36
1 7:3 8
17 :33
1 7: 35
17: 30
1 7:3 2
17: 27
1 7:2 8
1プロセス多重
17: 36
1 7:3 8
17 :33
1 7:3 5
VIOC
転送回数(IOPS)
17 :3 0
1 7:3 2
17 :27
1 7:2 8
17 :24
1 7:2 5
VIOC
帯域(MB/s)
17 :30
1 7:3 2
VIOS
CPU 使用量
17 :27
17 :2 9
17: 25
1 7:2 4
1 50
17 :25
17 :21
1 7:2 2
KB/ sec
2 00
17: 24
17: 22
1 7:2 1
回 /sec
千
17 :22
17: 21
VIO Sの CPU使用 量
IBM Power Systems
仮想 SCSI テスト結果② Random Read (nmon analyzer出力)
4VIOC使用
Disk MBytes/sec by Time of Day (all nodes)
500
4プロセス多重
400
300
200
100
0
Physical CPU vs Entitlement - p795022 2013/01/20
1.0
Unfolded VPs
0.8
0.6
0.4
0.2
0.0
・・・・・・
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI テスト結果② Random Read (代表点をプロット)
 横軸を VIOC における帯域 (MB/s) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Random Read
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
100
200
300
400
VIOCのRead (MB/s)
500
600
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 横軸を VIOC における転送回数 (IOPS) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Random Read
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
92
1000
2000
VIOCのRead (IOPS)
3000
4000
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 VIOSのCPU使用量は
MB/sにもIOPSにも、おお
よそ比例
 ブロックサイズ毎に異なる
傾き
 たとえばブロックサイズ
512KBの場合では、約
500MB/sのデータ読み込
みにおいて、約0.3PUの
CPUを使用
 たとえばブロックサイズ
4KBの場合では、約
3,500IOPSのデータ読み
込みにおいて、約0.2PU
のCPUを使用
© 2013 IBM Corporation
93
32KB
256KB
32KB
256KB
4KB
4KB
8KB
64KB
8KB
64KB
512KB
512KB
16KB
128KB
16KB
128KB
21:38
21:36
21:35
21:33
21:31
21:29
21:28
10000
21:24
21:22
21:20
21:18
21:16
21:13
21:11
21:35
21:38
21:38
21:33
21:31
21:35
21:33
21:31
21:29
15000
21:27
30000
21:29
Disk Transfers/sec by Time of Day (all nodes)
21:27
21:24
21:22
21:20
21:18
21:16
21:13
21:09
21:07
21:05
21:02
2プロセス多重
21:26
21:24
21:23
21:21
entitled
21:19
21:17
21:16
21:14
PhysicalCPU
21:12
21:11
21:09
21:07
21:05
21:00
20:58
20:56
1プロセス多重
21:10
21:09
21:07
21:05
Unfolded VPs
1.2
21:03
Physical CPU vs Entitlement - p795022 2013/01/20
21:02
0
20:53
Disk total KB/s p795031 - 2013/01/20
21:02
5000
0
21:00
Disk total KB/s p795031 - 2013/01/20
21:00
2000
20:58
4000
20:58
20000
20:57
25000
8000
20:56
IO/sec
20:55
6000
20:51
1200
20:53
MB/sec
4プロセス多重
20:51
10000
回/sec
18:41
18:35
18:37
18:38
18:40
Disk Write KB/s
20:53
1.2
1.0
0.8
0.6
0.4
0.2
0.0
VIOSのCPU使用量
18:41
18:35
18:37
18:38
18:40
18:30
18:32
18:33
18:26
18:27
18:29
1VIOC使用
20:51
18:41
18:37
18:38
18:40
18:30
18:32
18:33
18:26
18:27
18:29
18:21
18:23
18:24
2プロセス多重
18:32
18:33
18:35
entitled
18:27
18:29
18:30
PhysicalCPU
18:21
18:23
18:24
18:16
18:18
18:19
Disk Read KB/s
18:23
18:24
18:26
18:16
18:18
18:19
18:10
18:12
18:13
18:15
1プロセス多重
18:18
18:19
18:21
18:15
18:16
VIOC
転送回数(IOPS)
18:10
18:12
18:13
18:15
VIOC
帯域(MB/s)
18:10
18:12
18:13
VIOS
CPU 使用量
18:05
18:07
18:08
18:02
18:04
KB/sec
600
500
400
300
200
100
0
18:05
18:07
18:08
18:02
18:04
回/sec
千
18:05
18:07
18:08
18:02
18:04
VIOSのCPU使用量
IBM Power Systems
仮想 SCSI テスト結果③ Sequential Write (nmon analyzer出力)
4VIOC使用
Disk MBytes/sec by Time of Day (all nodes)
1000
4プロセス多重
800
600
400
200
0
Physical CPU vs Entitlement - p795022 2013/01/20
1.0
Unfolded VPs
0.8
0.6
0.4
0.2
0.0
・・・・・・
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI テスト結果③ Sequential Write (代表点をプロット)
 横軸を VIOC における帯域 (MB/s) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Sequential Write
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
200
400
600
800
VIOCのWrite (MB/s)
1000
1200
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 横軸を VIOC における転送回数 (IOPS) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Sequential Write
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
94
5000
10000
15000
20000
VIOCのWrite (IOPS)
25000
30000
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 VIOSのCPU使用量は
MB/sにもIOPSにも、おお
よそ比例
 ブロックサイズ毎に異なる
傾き
 たとえばブロックサイズ
512KBの場合では、約
1,100MB/sのデータ書き
込みにおいて、約0.65PU
のCPUを使用
 たとえばブロックサイズ
16KBの場合では、約
23,000IOPSのデータ書
き込みにおいて、約
0.7PUのCPUを使用
© 2013 IBM Corporation
95
32KB
256KB
32KB
256KB
4KB
4KB
8KB
64KB
8KB
64KB
512KB
512KB
16KB
128KB
16KB
128KB
22:25
22:27
22:26
22:16
22:14
22:12
22:10
22:08
22:06
22:04
22:02
22:24
0
22:26
5000
22:22
10000
22:24
15000
22:20
20000
22:22
25000
22:18
30000
22:20
Disk Transfers/sec by Time of Day (all nodes)
22:18
22:16
22:14
22:12
22:10
22:08
22:06
22:04
22:00
21:58
21:56
21:54
2プロセス多重
22:18
22:20
22:22
22:24
entitled
22:11
22:13
22:15
22:16
PhysicalCPU
22:02
22:00
21:58
21:56
21:52
21:50
1プロセス多重
22:02
22:04
22:06
22:07
22:09
Unfolded VPs
21:54
21:52
Disk total KB/s p795031 - 2013/01/20
21:50
21:48
21:46
21:44
21:42
Disk total KB/s p795031 - 2013/01/20
21:55
21:57
21:58
22:00
Physical CPU vs Entitlement - p795022 2013/01/20
21:48
21:46
IO/sec
900
800
700
600
500
400
300
200
100
0
21:44
MB/sec
4プロセス多重
21:42
12000
10000
8000
6000
4000
2000
0
回/sec
19:23
Disk Write KB/s
21:48
21:49
21:51
21:53
1.2
1.0
0.8
0.6
0.4
0.2
0.0
VIOSのCPU使用量
19:23
19:17
19:18
19:20
19:21
19:12
19:14
19:15
19:07
19:09
19:10
1VIOC使用
21:42
21:44
21:46
19:21
19:23
19:17
19:18
19:20
19:21
19:12
19:14
19:15
19:07
19:09
19:10
19:03
19:04
19:06
2プロセス多重
19:17
19:18
19:20
entitled
19:10
19:12
19:14
19:15
PhysicalCPU
19:03
19:04
19:06
18:58
18:59
19:01
Disk Read KB/s
19:04
19:06
19:07
19:09
VIOC
転送回数(IOPS)
18:58
18:59
19:01
18:52
18:53
18:55
18:56
1プロセス多重
18:59
19:01
19:03
18:52
18:53
18:55
18:56
VIOC
帯域(MB/s)
18:53
18:55
18:56
18:58
VIOS
CPU 使用量
18:47
18:48
18:50
18:44
18:45
KB/sec
600
500
400
300
200
100
0
18:47
18:48
18:50
18:44
18:45
回/sec
千
18:47
18:48
18:50
18:52
18:44
18:45
VIOSのCPU使用量
IBM Power Systems
仮想 SCSI テスト結果④ Random Write (nmon analyzer出力)
4VIOC使用
Disk MBytes/sec by Time of Day (all nodes)
4プロセス多重
Physical CPU vs Entitlement - p795022 2013/01/20
1.2
1.0
0.8
0.6
0.4
0.2
0.0
Unfolded VPs
・・・・・・
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI テスト結果④ Random Write (代表点をプロット)
 横軸を VIOC における帯域 (MB/s) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Random Write
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
200
400
600
800
1000
VIOCのWrite (MB/s)
1200
1400
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 横軸を VIOC における転送回数 (IOPS) としてプロットしたグラフ
VIOSのCPU使用量 (PU)
Random Write
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
96
5000
10000 15000 20000 25000
VIOCのWrite (IOPS)
30000 35000
4KB
8KB
16KB
32KB
64KB
128KB
256KB
512KB
 VIOSのCPU使用量は
MB/sにもIOPSにも、おお
よそ比例
 ブロックサイズ毎に異なる
傾き
 たとえばブロックサイズ
512KBの場合では、約
1,100MB/sのデータ書き
込みにおいて、約0.65PU
のCPUを使用
 たとえばブロックサイズ
4KBの場合では、約
30,000IOPSのデータ書
き込みにおいて、約
0.7PUのCPUを使用
© 2013 IBM Corporation
IBM Power Systems
仮想 SCSI サイジングまとめ
 ご使用環境(ご提案環境)におけるI/Oタイプとブロックサイズに応じて、今回の結果を
VIOSのサイジング目安としてご活用ください。
 Power Systems や Storage のモデル、アプリケーション等、環境によって結果が多
少変動する可能性はあります。
– ①Sequential Read
• VIOSのCPU使用量はMB/sにもIOPSにもおおよそ比例
• ブロックサイズには非依存 (OSの先読み機能のため)
 約1.5GB/sの読み込みにおいて、約0.8puのCPUを使用
 約6,000IO/sの読み込みにおいて、約0.8puのCPUを使用
– ②Random Read
• VIOSのCPU使用量はMB/sにもIOPSにもおおよそ比例
• ブロックサイズ毎に異なる傾き
 ブロックサイズ512KBの場合では、約500MB/sの読み込みにおいて、約0.3puのCPUを使用
 ブロックサイズ4KBの場合では、約3,500IO/sの読み込みにおいて、約0.2puのCPUを使用
– ③Sequential Write
• VIOSのCPU使用量はMB/sにもIOPSにもおおよそ比例
• ブロックサイズ毎に異なる傾き
 ブロックサイズ512KBの場合では、約1,100MB/sの書き込みにおいて、約0.65puのCPUを使用
 ブロックサイズ16KBの場合では、約23,000IO/sの書き込みにおいて、約0.7puのCPUを使用
– ④Random Write
• VIOSのCPU使用量はMB/sにもIOPSにもおおよそ比例
• ブロックサイズ毎に異なる傾き
 ブロックサイズ512KBの場合では、約1,100MB/sの書き込みにおいて、約0.65puのCPUを使用
 ブロックサイズ4KBの場合では、約30,000IO/sの書き込みにおいて、約0.7puのCPUを使用
97
© 2013 IBM Corporation
IBM Power Systems
このページはブランクです
98
© 2013 IBM Corporation