clustered Data ONTAP 8.3 物理ストレージ管理ガイド

clustered Data ONTAP® 8.3
物理ストレージ管理ガイド
ネットアップ株式会社
www.netapp.com/jp
部品番号: 215-09538_A0
作成日: 2015年3月
目次 | 3
目次
Data ONTAPによるディスクの管理 ........................................................... 10
Data ONTAPで使用されるディスク タイプ名 ........................................................... 10
Data ONTAPでサポートされるストレージ接続タイプとトポロジ .............................. 12
SASストレージ接続タイプのディスクの組み合わせ方法 ........................... 12
FC-ALストレージ接続タイプのディスクの組み合わせ方法 ....................... 12
アグリゲートおよびシステムの容量計算方法 ......................................................... 13
Data ONTAPでサポートされているディスク速度 .................................................... 13
アグリゲートとスペアの管理に対するドライブのチェックサム方式の影響 ............ 14
ドライブ名の形式 ...................................................................................................... 15
クラスタ構成前のドライブ名の形式 ......................................................................... 16
FC-AL接続ディスクのループID .................................................................. 18
RAIDドライブ タイプの概要 ..................................................................................... 19
ディスク完全消去の機能 .......................................................................................... 20
ディスク完全消去のプロセス ....................................................................... 20
ディスク完全消去を実行できない状況 ........................................................ 21
ディスク完全消去の中断 .............................................................................. 21
完全消去するデータを含んだアグリゲートの作成とバックアップについ
てのヒント ................................................................................................ 22
Data ONTAPによるディスクのパフォーマンスおよび健全性の監視 ..................... 22
Data ONTAPでディスクがオフラインになった場合の動作 ......................... 22
Data ONTAPによる高速RAIDリカバリを使用したディスク障害の削減 .... 22
Maintenance Centerを使用してドライブ エラーを防ぐ方法 ......................... 23
ディスクがMaintenance Centerに割り当てられる条件 ................................ 24
メディア エラーを防止するためのData ONTAPによる連続メディア スク
ラビング ................................................................................................... 25
ACPを使用してSAS接続ディスク シェルフのストレージの可用性を向上する
方法 ..................................................................................................................... 26
SSDを使用したストレージ パフォーマンスの向上 .................................................. 26
オールフラッシュによる最適化がノードの動作に及ぼす影響 ................... 27
Data ONTAPでのSSDの寿命管理 .............................................................. 27
SSDとHDDの機能の違い ............................................................................ 28
4 | 物理ストレージ管理ガイド
マルチディスク キャリアのストレージ シェルフの使用に関するガイドラインと
要件 ..................................................................................................................... 28
マルチディスク キャリアを削除する必要がある場合に、Data ONTAP
がRAIDへの影響を回避する方法 ......................................................... 29
マルチディスク キャリアを安全に取り外せるかどうかを確認する方法 ..... 29
マルチディスク キャリアのディスクのスペアに関する要件 ........................ 30
マルチディスク キャリアのストレージ シェルフのシェルフ構成に関する
要件 ......................................................................................................... 30
マルチディスク キャリアのストレージ シェルフのディスクで構成される
アグリゲートの要件 ................................................................................ 30
マルチディスク キャリアのストレージ シェルフのディスクをアグリゲート
で使用する場合の考慮事項 .................................................................. 31
ルートデータのパーティショニングの概要 ............................................................... 32
ルートデータのパーティショニングの機能 ................................................... 32
ルートデータのパーティショニングがストレージ管理に及ぼす影響 .......... 33
ルート アグリゲート用にパーティショニングされるドライブ ......................... 34
ルートデータのパーティショニングの標準的なレイアウト .......................... 34
ルートデータのパーティショニングの使用に関する要件 ............................ 36
ルートデータのパーティショニングを設定するためのノードの初期化 ....... 36
ルートデータのパーティショニングを使用しているノードでのアクティ
ブ / パッシブ構成の設定 ........................................................................ 41
ノードへのディスクの追加 ........................................................................................ 43
Disk Qualification Packageの更新が必要なタイミング ............................... 44
アグリゲートで使用中のディスクの交換 ................................................................. 45
自己暗号化ディスクの交換 ...................................................................................... 46
データ ディスクのホット スペアへの変換 ................................................................. 47
ノードからのディスクの取り外し ............................................................................... 47
障害ディスクの取り外し ................................................................................ 48
ホット スペア ディスクの取り外し ................................................................. 48
データ ディスクの取り外し ............................................................................ 49
ディスク完全消去によるディスクからのデータの削除 ............................................ 51
ディスク完全消去の停止 .......................................................................................... 53
ディスクの管理用コマンド ......................................................................................... 54
ストレージ シェルフに関する情報を表示するコマンド ............................................ 55
スペース情報を表示するコマンド ............................................................................ 55
ディスクの所有権の管理 ............................................................................. 57
目次 | 5
ディスク所有権の種類 .............................................................................................. 57
ディスクとアレイLUNの所有権を割り当てる理由 ................................................... 57
ディスクとアレイLUNを使用できるようにする方法 ................................................. 58
ディスクの所有権自動割り当ての仕組み ............................................................... 59
使用するディスク自動割り当てポリシー ..................................................... 60
所有権の自動割り当てが起動されるタイミング .......................................... 60
Data ONTAP-vテクノロジに基づくプラットフォームでのディスクの所有権の機
能 ......................................................................................................................... 60
ディスクの所有権を割り当てる際のガイドライン .................................................... 61
ディスクの所有権の割り当て ................................................................................... 61
ルートデータのパーティショニング用にパーティショニングされるディスクの所
有権の割り当て ................................................................................................... 62
ディスクからの所有権の削除 .................................................................................. 63
ディスク所有権の自動割り当ての設定 ................................................................... 64
ディスク所有権コマンドでのワイルドカード文字の使用 ......................................... 65
Data ONTAPによるアレイLUNの管理 ...................................................... 67
ストレージ アレイ上のアレイLUNを使用できるData ONTAPシステム .................. 67
アレイLUNを使用するためのライセンスのインストール ........................................ 68
ディスクとアレイLUNの所有権の機能 .................................................................... 69
ディスクとアレイLUNの所有権を割り当てる理由 ....................................... 69
ディスクとアレイLUNを使用できるようにする方法 ..................................... 70
Data ONTAPと所有するアレイLUNの関係 ................................................ 71
インストレーション後にアレイLUNの所有権を割り当てるケース .............. 71
Data ONTAPがアレイLUNを使用できるケース .......................................... 72
アレイLUNの所有権の割り当て .............................................................................. 75
バックエンド構成の検証 ........................................................................................... 76
スペア アレイLUNの割り当ての変更 ...................................................................... 76
アレイLUN名の形式 ................................................................................................ 77
クラスタ構成前のアレイLUN名の形式 ................................................................... 78
スペア アレイLUNのチェックサム方式の確認 ........................................................ 79
アレイLUNのチェックサム方式の変更 .................................................................... 80
ストレージ アレイ上でアレイLUNを再構成するための前提条件 .......................... 81
アレイLUNのサイズまたは構成の変更 .................................................................. 82
アレイLUNのData ONTAPによる使用の中止 ........................................................ 83
Data ONTAPシステムをサービスから削除する前のアレイLUNの準備 ............... 83
ストレージ暗号化による保管データの保護 ............................................... 84
6 | 物理ストレージ管理ガイド
ストレージ暗号化の概要 .......................................................................................... 84
ストレージ暗号化とは ................................................................................... 84
ストレージ暗号化の仕組み .......................................................................... 85
SEDを使用したディスク処理 ........................................................................ 86
ストレージ暗号化を使用する利点 ............................................................... 86
ストレージ暗号化の制限事項 ...................................................................... 87
ストレージ暗号化のセットアップ ............................................................................... 88
ストレージ暗号化の設定前に収集する情報 ............................................... 88
セキュアなキー管理通信のためのSSLの使用 ........................................... 90
ストレージ暗号化のセットアップ ウィザードの実行 ..................................... 92
ストレージ暗号化の管理 .......................................................................................... 94
キー管理サーバの追加 ............................................................................... 94
キー管理サーバのリンクの確認 .................................................................. 95
キー管理サーバ情報の表示 ....................................................................... 96
キー管理サーバの削除 ............................................................................... 97
ブート プロセスでキー管理サーバにアクセスできない場合 ...................... 98
ストレージ暗号化によるディスク情報の表示 .............................................. 99
認証キーの変更 ......................................................................................... 100
認証キーの取得 ......................................................................................... 101
認証キーの削除 ......................................................................................... 102
有効期限切れの証明書が原因のSSLの問題 .......................................... 102
SEDを非保護モードに戻す ........................................................................ 104
ストレージ暗号化を使用したディスクのデータの削除 .......................................... 105
ストレージ暗号化を使用したディスクの完全消去(ベンダーへの返却
前の作業) ............................................................................................. 105
ストレージ暗号化を使用してディスクの状態をend-of-lifeに設定する作
業 ........................................................................................................... 107
ストレージ暗号化を使用した緊急時のディスクのデータのシュレッディ
ング ........................................................................................................ 108
物理的なセキュアIDのSED用の機能 ....................................................... 109
PSID機能を備えたSED .............................................................................. 110
工場出荷時の設定へのSEDのリセット ..................................................... 111
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 ......... 112
ディスクのRAID保護レベル ................................................................................... 112
RAID-DP保護とは ...................................................................................... 112
RAID 4保護とは ......................................................................................... 113
目次 | 7
アレイLUNのRAID保護 ......................................................................................... 113
Data ONTAP-vストレージのRAID保護 ................................................................. 114
RAIDおよびSyncMirrorで提供される保護 ........................................................... 114
RAIDドライブ タイプの概要 ................................................................................... 117
RAIDグループの機能 ............................................................................................ 118
RAIDグループの命名規則 ........................................................................ 118
RAIDグループのサイジングに関する考慮事項 ....................................... 118
RAIDグループのサイズ変更 ..................................................................... 119
アレイLUNのData ONTAP RAIDグループに関する考慮事項 ................ 121
ホット スペア ディスクに関するData ONTAPの動作 ............................................. 122
最低限必要なホット スペアの数 ................................................................ 122
ホット スペアとして使用可能なディスク ..................................................... 123
一致スペアとは ........................................................................................... 123
適切なホット スペアとは ............................................................................. 123
デグレード モードについて ......................................................................... 124
スペア不足に対する警告を使用したスペア ドライブの管理 .................... 125
ホット スペアを使用したData ONTAPによる障害ディスクの処理 ........................ 125
利用可能なホット スペアがない場合のData ONTAPによる障害ディスクの処
理 ....................................................................................................................... 126
RAIDのタイムアウト オプションの変更に関する考慮事項 .................................. 126
RAIDレベル ディスク スクラビングによるデータの整合性の検証 ...................... 127
自動RAIDレベル スクラビングのスケジュールの変更 ............................ 127
手動RAIDレベル スクラビングの実行方法 .............................................. 128
RAID処理のシステム パフォーマンスへの影響の制御 ...................................... 128
RAIDデータ再構築のパフォーマンスへの影響の制御 ........................... 129
RAIDレベル スクラビングのパフォーマンスへの影響の制御 ................. 129
プレックスの再同期化のパフォーマンスへの影響の制御 ....................... 130
ミラー検証のパフォーマンスへの影響の制御 .......................................... 131
アグリゲートとは ........................................................................................ 133
ミラーされていないアグリゲートの機能 ................................................................. 133
ミラーされたアグリゲートの機能 ............................................................................ 135
Flash Poolアグリゲートとは .................................................................................... 136
Flash Poolアグリゲートの機能 ................................................................... 136
Flash Poolアグリゲートを使用するための要件 ......................................... 137
Flash PoolキャッシュのRAIDタイプとスペアの管理に関する考慮事項 .. 138
Flash PoolアグリゲートとFlash Cacheの比較 ............................................. 139
8 | 物理ストレージ管理ガイド
使用可能なFlash Poolキャッシュ容量の計算方法 ................................... 140
Flash Poolアグリゲート内のボリュームでのキャッシング ポリシーの使
用 ........................................................................................................... 141
キャッシング ポリシーの変更 ..................................................................... 143
Flash Pool SSDパーティショニングでFlash Poolアグリゲートのキャッシュ割り
当ての柔軟性を拡張する方法 ......................................................................... 144
SSDストレージ プールを使用するケースに関する考慮事項 ................... 145
SSDストレージ プールの使用方法 ............................................................ 146
SSDストレージ プールを使用する際の要件およびベストプラクティス ..... 147
SSDストレージ プールの作成 .................................................................... 148
SSDストレージ プールへのSSDの追加 ..................................................... 149
SSDを既存のストレージ プールに追加する場合と新規作成する場合
の考慮事項 ........................................................................................... 150
SSDストレージ プールへのSSDの追加がキャッシュ サイズに及ぼす
影響の特定 ........................................................................................... 150
SSDストレージ プールの管理用コマンド ................................................... 151
FlexVolに関連付けるアグリゲートの選択に対するSVMの影響 ......................... 152
Data ONTAPでの異機種混在ストレージの処理について .................................... 152
速度の異なるディスクを同じアグリゲートに混在させる方法 ................... 153
異機種混在ストレージからのディスク選択の制御方法 ........................... 153
タイプの異なるHDDをアグリゲート内に混在させる場合のルール ......... 154
Flash Poolアグリゲート内に複数のドライブ タイプを混在させる場合の
ルール ................................................................................................... 155
アレイLUNのアグリゲートに複数のストレージを混在させる場合のル
ール ....................................................................................................... 155
アレイLUNを含むアグリゲートのチェックサム方式の決定方法 .......................... 156
アグリゲート内のスペースの使用量を確認する方法 ........................................... 156
ボリュームのアグリゲートでのスペース使用量を確認および制御する方法 ...... 158
Infinite Volumeでのアグリゲートの使用方法 ........................................................ 160
Infinite Volumeのアグリゲートに関する要件 ............................................ 161
FlexVolとInfinite Volumeでのアグリゲートの共有 .................................... 161
Infinite Volumeにどのアグリゲートを関連付けることができるかにスト
レージ クラスが与える影響 .................................................................. 162
アグリゲートおよびノードとInfinite Volumeの関連付け ............................ 162
新しいInfinite Volume内でのスペースの割り当て方法 ............................ 163
Infinite Volumeで使用されるアグリゲートの所有権の切り替え .............. 164
目次 | 9
アグリゲートの管理 ................................................................................... 168
パーティショニングされていないドライブを使用するアグリゲートの作成 ............ 168
ルートデータのパーティショニングを使用するアグリゲートの作成 ..................... 170
物理ドライブを使用するアグリゲートのサイズの拡張 ......................................... 172
ルートデータのパーティショニングを使用するアグリゲートのサイズの拡張 ...... 174
ミスアライメントのあるスペア パーティションの修正 ............................................. 178
アグリゲートにストレージを追加したときの動作 ................................................... 180
物理SSDを使用するFlash Poolアグリゲートの作成 ............................................. 180
SSDストレージ プールを使用するFlash Poolアグリゲートの作成 ........................ 182
Flash Poolの候補と最適なキャッシュ サイズの確認 ............................................ 184
Flash Poolアグリゲートでボリュームが書き込みキャッシュに対応しているかど
うかの確認とその有効化 .................................................................................. 188
Flash Poolアグリゲート内のRAIDグループのRAIDタイプの変更 ....................... 189
アグリゲートのドライブとRAIDグループの情報の確認 ....................................... 191
HAペアでのアグリゲートの所有権の切り替え ..................................................... 192
アグリゲートの再配置の仕組み ................................................................ 192
ルートデータのパーティショニングがアグリゲートの再配置に及ぼす影
響 ........................................................................................................... 193
アグリゲートの所有権の切り替え .............................................................. 194
アグリゲートの再配置用のコマンド ........................................................... 196
storage aggregate relocation startコマンドの主なパラメータ ...................... 197
アグリゲートの再配置時の拒否とデスティネーションのチェック .............. 198
SVMへのアグリゲートの割り当て ......................................................................... 201
アグリゲート内のスペースを確保する方法 ........................................................... 202
アグリゲートに配置するボリュームの確認 ........................................................... 203
Flash PoolアグリゲートでSSDストレージ プールを使用しているかどうかの確
認 ....................................................................................................................... 203
アグリゲートの管理用コマンド ............................................................................... 204
ストレージの制限 .......................................................................................
著作権に関する情報 .................................................................................
商標に関する情報 .....................................................................................
マニュアルの更新について .......................................................................
索引 ............................................................................................................
205
207
208
209
210
10 | 物理ストレージ管理ガイド
Data ONTAPによるディスクの管理
ディスク(ドライブと呼ばれることもあります)は、Data ONTAPを実行するストレージ システムでネイ
ティブ ストレージ シェルフを使用する際のストレージの基本単位です。Data ONTAPではどのよう
にディスクが使用され分類されるのかを理解すると、より有効にストレージを管理できます。
Data ONTAPで使用されるディスク タイプ名
Data ONTAPでは、各ディスクにディスク タイプが関連付けられます。Data ONTAPでは、一部のデ
ィスク タイプについて業界標準とは違う名称を使用します。Data ONTAPのディスク タイプと業界標
準のディスク タイプとの対応を確認し、混乱しないようにしてください。
Data ONTAPのマニュアルでは、特に指定がないかぎり、ディスク タイプとはData ONTAPで使用す
るディスク タイプを指します。RAIDディスク タイプは、あるディスクがRAIDで果たす役割を表して
います。Data ONTAPのディスク タイプとは関係ありません。
あるシステム構成でサポートされるディスク タイプは、ストレージ システム モデル、ディスク シェル
フ タイプ、およびシステムにインストールされているI/Oモジュールなどによって決まります。
以下の表に、SASストレージとFCストレージの接続タイプ、ストレージ アレイ、および仮想ストレー
ジ(Data ONTAP-v)のそれぞれについて、Data ONTAPのディスク タイプと業界標準のディスク タ
イプとの対応を示します。
SAS接続ストレージ
Data ONTAPのデ
ィスク タイプ
ディスク クラス
業界標準のディスク
タイプ
説明
BSAS
データ
SATA
SAS接続ストレージ シェル
フへの接続を可能にする
追加ハードウェアを搭載し
たブリッジSAS-SATAディ
スク
FSAS
データ
NL-SAS
ニアラインSAS
MSATA
データ
SATA
マルチディスク キャリアの
ストレージ シェルフの
SATAディスク
SAS
パフォーマンス
SAS
Serial-Attached SCSI
SSD
ウルトラパフォーマン
ス
SSD
ソリッドステート ドライブ
Data ONTAPによるディスクの管理 | 11
FC接続ストレージ
Data ONTAPのデ
ィスク タイプ
ディスク クラス
業界標準のディスク タイ
プ
説明
ATA
データ
SATA
FCAL
パフォーマンス
FC
Data ONTAPのデ
ィスク タイプ
ディスク クラス
業界標準のディスク タイ
プ
説明
LUN
N/A
LUN
ストレージ アレイで
バックアップされ、
Data ONTAPでディ
スクとして使用され
る論理ストレージ
デバイス。 Data
ONTAPがクライア
ントに提供する
LUNと区別するた
め、これらのLUN
をアレイLUNと呼
びます。
ストレージ アレイ
仮想ストレージ(Data ONTAP-v)
Data ONTAPのデ
ィスク タイプ
ディスク クラス
業界標準のディスク タイ
プ
説明
VMDISK
N/A
VMDK
VMware ESXでフ
ォーマットおよび管
理される仮想ディス
ク。
関連コンセプト
タイプの異なるHDDをアグリゲート内に混在させる場合のルール(154ページ)
Data ONTAPでサポートされるストレージ接続タイプとトポロジ(12ページ)
関連参照情報
RAIDドライブ タイプの概要(19ページ)
12 | 物理ストレージ管理ガイド
関連情報
ネットアップ テクニカル レポート3437:『Storage Subsystem Resiliency Guide』
NetApp Hardware Universe
Data ONTAPでサポートされるストレージ接続タイプとトポロジ
Data ONTAPでは、ストレージ接続タイプとして、Serial-Attached SCSI(SAS;シリアル アタッチド
SCSI)とFibre Channel(FC;ファイバチャネル)の2つをサポートしています。FC接続タイプについて
は、アービトレーテッド ループ、スイッチ、およびポイントツーポイントの3種類のトポロジがサポート
されます。
•
SAS、BSAS、FSAS、SSD、およびMSATAの各ディスクでは、SAS接続タイプを使用します。
SAS接続ストレージ シェルフは、スタックと呼ばれるデイジー チェーンでコントローラに接続され
ます。
•
FCディスクおよびATAディスクでは、FC接続タイプのアービトレーテッド ループ トポロジ(FCAL)を使用します。
FC接続ストレージ シェルフは、ループ接続でコントローラに接続されます。
•
アレイLUNでは、FC接続タイプのポイントツーポイント トポロジまたはスイッチ トポロジを使用
します。
同一のループまたはスタックで異なる接続タイプを組み合わせることはできません。ただし、
MetroCluster構成では、FC接続タイプとSAS接続タイプをブリッジ接続で組み合わせることができ
ます。この構成では、コントローラ側でFCを使用し、シェルフ側でSASを使用します。ブリッジ接続
は、直接接続トポロジまたはスイッチ トポロジで使用できます。詳細については、『Configuring a
MetroCluster system with SAS disk shelves and FibreBridge 6500N bridges in 7-Mode』を参照してく
ださい。
SASストレージ接続タイプのディスクの組み合わせ方法
パフォーマンス ディスクが搭載されたSAS接続ストレージ シェルフとキャパシティ ディスクが搭載さ
れたSAS接続ストレージ シェルフを同じスタック内で組み合わせることができますが、この構成は
推奨されません。
それぞれのSAS接続ストレージ シェルフに搭載できるディスクのクラスは1つだけ(キャパシティ、
パフォーマンス、またはSSD)です。ただし、シェルフをFlash Poolアグリゲートに使用する場合はこ
のかぎりではなく、一部のSSDサイズやシェルフ モデルでは、SSDとHDDを混在させることができ
ます。詳細については、Hardware Universeを参照してください。
FC-ALストレージ接続タイプのディスクの組み合わせ方法
FCディスクが搭載されたストレージ シェルフとATAディスクが搭載されたストレージ シェルフを同じ
ループ内で組み合わせることはできません。
Data ONTAPによるディスクの管理 | 13
アグリゲートおよびシステムの容量計算方法
ストレージ アーキテクチャがシステム全体の容量制限やアグリゲートのサイズ制限に従っている
かどうかを確認する場合には、ストレージ システムで使用するドライブの物理容量と使用可能容
量を使用します。
メーカー各社のドライブ間の互換性を保つため、Data ONTAPではユーザ データ用に利用可能な
ドライブ容量の端数を切り捨てます(サイズの適正化)。 また、容量の計算に2進法と10進法のど
ちらを使用するかもサイジング情報に影響します。これらの理由から、実行するタスクに応じて適
切なサイズ測定値を使用することが重要です。
•
システム全体の容量を計算する場合は、ドライブの物理容量を使用して、ストレージ システム
が所有するすべてのドライブの合計を計算します。
•
アグリゲートの最大サイズ内で追加できるドライブの本数を計算する場合は、そのアグリゲート
内のすべてのデータ ドライブの適正サイズ(使用可能な容量)を使用します。
パリティ ドライブ、ダブルパリティ ドライブ、およびキャッシュ ドライブは最大アグリゲート サイ
ズにはカウントされません。
各ドライブの物理容量と使用可能容量については、Hardware Universe(hwu.netapp.com)を参照し
てください。
Data ONTAPでサポートされているディスク速度
回転メディアを使用するハード ディスクドライブの場合、速度は回転速度(rpm)で測定されます。ド
ライブの速度が速いほど、Input/Out Operations per Second(IOPS;1秒あたりの入出力操作)が向
上し、応答時間が速くなります。
同じアグリゲートでは、同じ速度のディスクを使用することを推奨します。
Data ONTAPでサポートされるハード ディスクドライブの回転速度は次のとおりです。
•
パフォーマンス ディスク(SAS接続)
◦ 10K rpm
◦ 15K rpm
•
キャパシティ ディスク(SAS接続)
◦ 7.2K rpm
•
パフォーマンス ディスク(FC接続)
◦ 15K rpm
•
キャパシティ ディスク(FC接続)
14 | 物理ストレージ管理ガイド
◦ 7.2K rpm
Solid-State Drive(SSD;ソリッド ステート ドライブ)は、フラッシュ メディアベースのデバイスであるた
め、回転速度という概念は当てはまりません。
特定のハードウェア構成でサポートされるディスクの詳細については、Hardware Universe
(hwu.netapp.com)を参照してください。
アグリゲートとスペアの管理に対するドライブのチェックサム方式の
影響
Data ONTAPで使用するドライブには、BCS(block)とAZCS(zoned)の2種類のチェックサム方式が
あります。チェックサム方式の違いやそれらによるストレージ管理への影響を理解すると、より効果
的にストレージを管理できます。
耐障害性機能はどちらのチェックサム方式でも同じです。BCSはデータ アクセス速度を最適化す
る方式で、520バイト セクタからなるドライブで、チェックサム用に確保される容量が最小限の方式
です。AZCSは、512バイト セクタからなるドライブのストレージ利用率と容量を向上させます。ドラ
イブのチェックサム方式を変更することはできません。
特定のドライブ モデルのチェックサム方式を決定する方法については、Hardware Universeを参照
してください。
アグリゲートのチェックサム方式は、アグリゲートを構成するドライブまたはアレイLUNのチェックサ
ム方式で決まります。アグリゲート、ドライブ、およびチェックサムには、次のルールが適用されま
す。
•
RAIDグループ内でチェックサム方式を組み合わせることはできません。
そのため、ホット スペア ドライブを用意するときはチェックサム方式を考慮する必要がありま
す。
•
アグリゲートにストレージを追加するとき、通常の追加先のRAIDグループにあるストレージとチ
ェックサム方式が異なる場合は、Data ONTAPによって新しいRAIDグループが作成されます。
•
アグリゲートには、両方のチェックサム方式のRAIDグループを混在させることができます。
その場合、アグリゲートのチェックサム方式はmixedになります。
•
ミラーされたアグリゲートでは、両方のプレックスでチェックサム方式が同じでなければなりませ
ん。
•
障害が発生したドライブを交換するときに、チェックサム方式が異なるドライブを使用することは
できません。
•
ドライブのチェックサム方式を変更することはできません。
Data ONTAPによるディスクの管理 | 15
ドライブ名の形式
機能しているクラスタにノードが含まれている場合、そのノードが接続されているドライブには、一
貫性のある単純な形式のドライブ名を使用してアクセスできます。ドライブ名は、ドライブが物理的
に接続されているノードおよびドライブへのアクセス元のノードとは無関係です。
ドライブ名は、次の4つの要素を連結した形式で表します。
<stack_id>.<shelf_id>.<bay>.<position>
注: システム ブート中のクラスタへのノードの結合前や、特定の主要なクラスタ コンポーネントが
使用不能になった場合には、ドライブ名が物理的な接続に基づいた従来の形式に戻されます。
•
スタックID(stack_id)はData ONTAPによって割り当てられます。
スタックIDはそのクラスタ全域で一意であり、1から始まります。
•
シェルフID(shelf_id)は、そのシェルフのスタックまたはループへの追加時にストレージ シェル
フに対して設定されます。
あるシェルフIDがSASシェルフをめぐって競合している場合、ドライブ名ではそのシェルフIDが
シェルフのシリアル番号で置き換えられます。
•
ベイ(bay)は、シェルフ内でのディスクの位置を表します。
ストレージ シェルフの管理ガイドにあるベイ マップを参照できます。
•
位置(position)は、マルチディスク キャリアのストレージ シェルフでのみ使用されます。
2本のディスクを内蔵しているキャリアの場合、位置は1または2となります。
関連コンセプト
クラスタ構成前のアレイLUN名の形式(78ページ)
クラスタ構成前のドライブ名の形式(16ページ)
関連参照情報
ストレージ シェルフに関する情報を表示するコマンド(55ページ)
関連情報
SAS Disk Shelves Installation and Service Guide for DS4243, DS2246, DS4486, and DS4246
DS14mk2 FC, and DS14mk4 FC Hardware Service Guide
DiskShelf14mk2 ATハードウェア サービス ガイド
16 | 物理ストレージ管理ガイド
クラスタ構成前のドライブ名の形式
安定状態での運用中、ドライブ名は物理的な接続とは無関係であり、表示元のノードには影響さ
れません。ただし、システム ブート中、クラスタへのノードの結合前、および特定のシステム コンポ
ーネントが使用不能になった場合には、ドライブ名がData ONTAP 8.3より前に使用されていた形
式(クラスタ構成前の形式)に戻されます。
所有権が設定されていないドライブ(破損したドライブや未割り当てのドライブ)のクラスタ構成前
の名前のノード名の部分には、そのドライブを認識できるクラスタ内のノードのうち、アルファベット
順で最後になるノードの名前が表示されます。
次の表に、ストレージ システムへのドライブの接続方法ごとに、クラスタ構成前のドライブ名のさま
ざまな形式を示します。
注: 内蔵ドライブの場合、スロット番号は0になります。内部ポート番号はシステム モデルによっ
て異なります。
ドライブの接続方法
ドライブ名
例
SAS、直接接続
<node>:<slot><port>.<shelfID>.<bay>
シェルフ2のベイ11
にある、オンボー
ド ポート0aに接続
された、node1で所
有されているドラ
イブのクラスタ構
成前の名前は、
node1:0a.2.11にな
ります。
シェルフ6のベイ3
にある、スロット1
のHBAのポートc
に接続された、
node1で所有され
ているドライブのク
ラスタ構成前の名
前は、node1:1c.
6.3になります。
SAS、直接接続、マル
チディスク キャリアの
ディスク シェルフ
<node>:<slot><port>.<shelfID>.<bay>L<carrierP
osition>
キャリアの位置は
1または2です。
Data ONTAPによるディスクの管理 | 17
ドライブの接続方法
ドライブ名
SAS、直接接続、Data <slot><port>.<ID>
ONTAP-vを実行してい
るシステム
例
最初のポートに接
続された3番目の
仮想ディスクのク
ラスタ構成前の名
前は、0b.3になり
ます。3番目のポ
ートに接続された2
番目の仮想ディス
クのクラスタ構成
前の名前は、0d.2
になります。
ポートの範囲はb
~e、ディスクの範
囲は0~15です。
SAS、ブリッジ接続
(FibreBridge、
MetroCluster構成用)
<slot><port>.<loopID>L<LUN>
スロット3のポート
にブリッジで接続
された、LUN 2、
ループID 125のド
ライブのクラスタ構
成前の名前は、
3a.125L2になりま
す。
SAS、スイッチを介した
ブリッジ接続
(FibreBridge、
MetroCluster構成用)
<switch_name>:<switch_port>.<loopID>L<LUN
>
スイッチbrcd44の
ポート2にブリッジ
で接続された、
LUN 5、ループID
126のドライブのク
ラスタ構成前の名
前は、
brcd44:2.126L5に
なります。
18 | 物理ストレージ管理ガイド
ドライブの接続方法
ドライブ名
例
FC、直接接続
<node>:<slot><port>.<loopID>
オンボード ポート
0aに接続された、
node1で所有され
ているループID
19(シェルフ1のベ
イ3)のドライブの
クラスタ構成前の
名前は、node1:0a.
19になります。
スロット8のHBAの
ポートcに接続され
た、node1で所有さ
れているループID
34のドライブのク
ラスタ構成前の名
前は、node1:8c.34
になります。
FC、スイッチ接続
<node>:<switch_name>.<switch_port>.<loopID>
スイッチSW7のポ
ート3に接続され
た、node1で所有さ
れているループID
51のドライブのク
ラスタ構成前の名
前は、
node1:SW7.3.51に
なります。
各ドライブに、クラスタ内の他のドライブと区別するためのUniversal Unique Identifier(UUID)が割
り当てられます。
関連コンセプト
ドライブ名の形式(15ページ)
クラスタ構成前のアレイLUN名の形式(78ページ)
FC-AL接続ディスクのループID
FC-ALまたはFCを使用して接続したディスクのループIDは、16~126の整数です。ループIDは、そ
のループ内のディスクを識別し、ディスク名に含まれています。ディスク名は、システム全体でディ
スクを一意に識別します。
ループIDは、ストレージ シェルフ番号およびディスクが搭載されているベイに対応しています。最
小のループIDは、常に、最初のストレージ シェルフの一番右にあるベイになります。次のループID
Data ONTAPによるディスクの管理 | 19
はその左側にあるベイになり、以降のベイにも同様にIDが割り当てられます。ストレージ シェルフ
のデバイス マップは、ノードシェルから利用可能なfcadmin device_mapコマンドを使用して表示
できます。
使用するストレージ シェルフのループIDマップの詳細については、ストレージ シェルフのハードウ
ェア ガイドを参照してください。
RAIDドライブ タイプの概要
Data ONTAPでは、RAIDのドライブ(パーティショニングされたドライブの場合は、パーティション)を
データ、ホット スペア、パリティ、dParityの4タイプに分類します。ディスクは、スペアであるかアグリ
ゲートで使用されるかによって管理方法が異なります。
RAIDのドライブ タイプは、RAIDでのドライブまたはパーティションの使用方法によって決まりま
す。Data ONTAPのディスク タイプとは異なります。
ドライブのRAIDタイプを変更することはできません。RAIDタイプは、各種のストレージ コマンドの
Position列に表示されます。
ルートデータ パーティショニングおよびストレージ プールのSSDを使用するドライブの場合は、1つ
のドライブをRAIDに対して複数の用途で使用できます。たとえば、パーティショニングされたドライ
ブのルート パーティションをスペア パーティションとして使用し、データ パーティションをパリティに
使用することができます。このため、パーティショニングされたドライブおよびストレージ プール内
のSSDについては、RAIDドライブ タイプは単にsharedと表示されます。
データ ディスク
RAIDグループ内でクライアント用に格納されたデータ(および誤動作の結果、ストレー
ジ システムの状態に関して生成されるデータ)を保持します。
スペア ディスク
使用可能なデータは保持しませんが、アグリゲート内のRAIDグループへの追加ディス
クとして使用できます。アグリゲートには割り当てられておらず、ホット スペア ディスクと
してシステム機能に割り当てられている、すべての正常なディスクを指します。
パリティ ディスク
RAIDグループ内の単独のディスク ドライブに障害が発生した場合にデータの再構築に
使用する、行パリティ情報を格納します。
dParityディスク
RAID DPが有効になっている場合、RAIDグループ内の2つのディスク ドライブに障害
が発生した場合にデータの再構築に使用する、対角線パリティ情報を格納します。
関連コンセプト
Data ONTAPで使用されるディスク タイプ名(10ページ)
20 | 物理ストレージ管理ガイド
ディスク完全消去の機能
ディスク完全消去は、元のデータのリカバリが不可能になるように、指定したバイト パターンまたは
ランダム データでディスクやSSDを上書きして、データを物理的に消去するプロセスです。ディスク
上のデータをリカバリできないようにするには、完全消去プロセスを使用します。この機能はノード
シェルから利用できます。
関連タスク
ディスク完全消去によるディスクからのデータの削除(51ページ)
ディスク完全消去のプロセス
ディスク完全消去の基本的なプロセスについて理解すると、完全消去プロセスの実行中や完了後
の想定される状況を理解しやすくなります。
ディスク完全消去プロセスでは、1回の操作で最大7サイクルまで、3連続のデフォルトまたはユー
ザ指定バイトによる上書きパターンが実行されます。サイクルごとにランダムな上書きパターンが
繰り返されます。
このプロセスは、ディスクの容量、上書きパターン、およびサイクル数によって、数時間を要するこ
とがあります。完全消去はバックグラウンドで実行されます。完全消去プロセスでは、開始と停止
のほか、ステータスの表示もできます。
完全消去プロセスは2つのフェーズからなります。
1. フォーマット フェーズ
次の表に示すように、フォーマット フェーズで実行される処理は、完全消去するディスクのクラ
スによって異なります。
ディスク クラス
フォーマット フェーズ
大容量HDD
スキップ
高性能HDD
SCSIフォーマット処理
SSD
SCSI完全消去処理
2. パターン上書きフェーズ
指定した上書きパターンが指定したサイクル数だけ反復されます。
完全消去プロセスが完了すると、指定したディスクは完全に消去された状態になります。それらの
ディスクは、自動ではスペア状態に戻りません。新たに完全消去したディスクを別のアグリゲートに
追加できるようにするには、完全消去したディスクをスペア プールに戻す必要があります。
Data ONTAPによるディスクの管理 | 21
ディスク完全消去を実行できない状況
ディスク完全消去は、一部のディスク タイプではサポートされていません。また、状況によって、デ
ィスク完全消去を実行できないことがあります。
ディスク完全消去プロセスについて、次の点に注意してください。
•
一部のパーツ番号のSSDではサポートされていません。
ディスク完全消去がサポートされるSSDのパーツ番号については、Hardware Universe
(hwu.netapp.com)を参照してください。
•
HAペアのシステムのテイクオーバー モードではサポートされません。
•
読み取り / 書き込みの問題が原因で障害が発生したディスクでは実行できません。
•
ATAドライブでは、フォーマット フェーズは実行されません。
•
ランダム パターンを使用している場合、一度に消去できるディスクは最大100本です。
•
アレイLUNではサポートされません。
•
同一のESHシェルフ内のSESディスクを両方同時に完全消去する場合、シェルフへのアクセス
に関するエラーがコンソールに表示され、完全消去の実行中はシェルフに関する警告は報告さ
れません。
ただし、そのシェルフへのデータ アクセスは中断されません。
•
Storage Encryptionを使用してディスクを完全消去することもできます。
ただし、Storage Encryptionを使用した、より高速な、稼働しているストレージ システムを必要と
しない、ディスク データの消去方法もあります。
ディスク完全消去の中断
ディスク完全消去の処理には時間がかかります。ユーザによる操作や予期しない停電などによっ
てディスク完全消去が中断された場合、完全消去を実行していたディスクは既知の状態に戻され
ますが、完全消去プロセスを完了するには手動の処理も必要になります。
停電、システム パニック、手動操作などによって完全消去プロセスが中断された場合は、完全消
去プロセスを最初からやり直す必要があります。この場合、ディスクは完全消去済みとはみなされ
ません。
ディスク完全消去がフォーマット フェーズ中に中断された場合、Data ONTAPは、中断によって破
損したすべてのディスクをリカバリします。そのため、システムのリブート時、および1時間ごとに、
完全消去のフォーマット フェーズが完了していないターゲット ディスクの有無がチェックされます。
該当するディスクが見つかると、Data ONTAPでリカバリが実行されます。リカバリ方法はディスク
の種類によって異なります。ディスクのリカバリが完了したら、そのディスクの完全消去プロセスを
再実行できます。HDDの場合は、-sオプションを使用して、フォーマット フェーズを繰り返す必要
がないことを指定できます。
22 | 物理ストレージ管理ガイド
完全消去するデータを含んだアグリゲートの作成とバックアップについてのヒント
完全消去が必要なデータを含んだアグリゲートを作成またはバックアップする場合には、次に示す
簡単なガイドラインに従うことによって、データ完全消去にかかる時間を短縮できます。
•
機密データが含まれるアグリゲートのサイズが、必要以上に大きくないかどうかを確認する。
必要以上に大きいと、完全消去の実行に、より多くの時間、ディスク スペース、帯域幅が必要
になります。
•
機密データが含まれているアグリゲートをバックアップする場合、非機密データを大量に含むア
グリゲートへのバックアップは避ける。
これにより、機密データを完全消去する前に、非機密データの移行に必要となるリソースを削
減できます。
Data ONTAPによるディスクのパフォーマンスおよび健全性の監視
Data ONTAPはディスクを継続的に監視して、ディスクのパフォーマンスおよび健全性を評価しま
す。Data ONTAPは、ディスク上で特定のエラーまたは動作を検出すると、そのディスクを一時的に
オフラインにするか、またはサービスを停止してさらにテストを実行します。
Data ONTAPでディスクがオフラインになった場合の動作
Data ONTAPは、バックグラウンド モードでディスク ファームウェアを更新中、またはディスクが応
答しなくなった場合に、ディスクのI/O処理を一時的に停止し、ディスクをオフラインにします。ディス
クがオフラインになると、Data ONTAPはディスクの簡単なチェックを実行し、強制ディスク障害の発
生を軽減します。
ディスクをオフラインにできるのは、そのディスクを含むRAIDグループが正常な状態で、プレックス
またはアグリゲートがオフラインでない場合だけです。
ディスクがオフラインの間、Data ONTAPはRAIDグループの別のディスクから読み取りを行い、書
き込みは記録されます。オフライン ディスクがオンラインに復帰できる状態になると、Data ONTAP
はRAIDグループを再同期化して、ディスクをオンラインに戻します。この処理には通常数分かか
り、パフォーマンスがわずかに低下します。
Data ONTAPによる高速RAIDリカバリを使用したディスク障害の削減
ディスクのエラーしきい値の超過が確認されると、Data ONTAPはそのディスクをテストのために
RAIDグループから除外して高速RAIDリカバリを実行し、必要な場合はそのディスクを障害ディス
クとします。ディスク エラーを迅速に検出することで、複数のディスクに障害が発生する状況を防
止でき、問題のあるディスクの交換が可能になります。
Data ONTAPは、疑わしいディスクに対して高速RAIDリカバリ プロセスを実行することにより、突
然のディスク障害とその後のRAID再構築プロセス中に発生する次の3つの問題を回避します。
•
再構築時間
Data ONTAPによるディスクの管理 | 23
•
パフォーマンスの低下
•
再構築中の新たなディスク障害によるデータ損失
高速RAIDリカバリの実行中、Data ONTAPは次の処理を行います。
1. 疑わしいディスクを障害前モードにします。
2. ホット スペア交換ディスクを選択します。
注: 適切なホット スペアがない場合、疑わしいディスクは障害前モードのまま、データの提供
を続けます。ただし、疑わしいディスクの稼働効率は低下します。パフォーマンスへの影響
は、ほとんどない場合もあれば、デグレード モードよりも低下する場合もあります。したがっ
て、常にホット スペアを使用できる状態にしておいてください。
3. 障害が実際に発生する前に、疑わしいディスクの内容をストレージ システムのホット スペア デ
ィスクに複製します。
4. 複製の完了後、疑わしいディスクをMaintenance Centerの処理対象に加えるか、または障害デ
ィスクとします。
注: 手順2~4が実行されるのは、RAIDグループが(デグレード モードではなく)通常モードの場
合だけです。
ホット スペアへの複製が完了する前に、疑わしいディスクが実際に障害ディスクになった場合、
Data ONTAPは通常のRAID再構築プロセスを開始します。
高速RAIDリカバリ プロセスの開始時と完了時にログ ファイルにメッセージが送られます。メッセ
ージには、raid.rg.diskcopy.start:noticeおよびraid.rg.diskcopy.done:noticeと
いうタグが付けられます。
関連コンセプト
デグレード モードについて(124ページ)
ディスクがMaintenance Centerに割り当てられる条件(24ページ)
ホット スペア ディスクに関するData ONTAPの動作(122ページ)
Maintenance Centerを使用してドライブ エラーを防ぐ方法
通常の運用の妨げにはならない小さな問題がドライブに表示されることがありますが、これはドラ
イブ障害が発生する前兆の可能性があります。Maintenance Centerでは、このようなドライブを詳し
く調査することができます。
疑いのあるドライブがMaintenance Centerに割り当てられると、そのドライブに対して多数のテスト
が実行されます。すべてのテストに合格したドライブは、Data ONTAPによってスペアとして再指定
されます。いずれかのテストに失敗したドライブは、Data ONTAPによって障害状態とみなされま
す。
24 | 物理ストレージ管理ガイド
デフォルトでは、Data ONTAPは疑いのあるドライブで複数のスペアが使用可能な場合にのみ、そ
のドライブをMaintenance Centerに自動的に割り当てます。そのドライブが搭載されたシェルフで自
動電源再投入をサポートしている場合は、ドライブの電源が一時的にオフになることがあります。
電源再投入後にドライブが再び動作可能になると、Maintenance Centerによりドライブのテストが実
行されます。それ以外の場合、ドライブはすぐに障害状態とみなされます。
使用可能なスペアの数に関係なく、疑いのあるドライブをMaintenance Centerに手動で割り当てる
ことができます。また、ドライブをMaintenance Centerで処理できる回数を指定したり、ドライブをす
ぐにMaintenance Centerに割り当てるか、ドライブの内容をスペア ドライブに複製したあとに割り当
てるかを指定したりすることもできます。
•
disk.maint_center.enableオプションは、Maintenance Centerをオンにするかオフにするか
を制御します。
デフォルト値は「on」です。
•
disk.maint_center.allowed_entriesオプションは、疑いのあるドライブをMaintenance
Centerで処理できる回数を制御します。
デフォルト値は「1」です。つまり、Maintenance Centerに複数回送られたドライブは自動的に障
害状態とみなされます。
•
disk.maint_center.spares_checkオプションは、ドライブをMaintenance Centerに割り当て
る前に、十分な数のスペアが用意されていることをData ONTAPで確認するかどうかを制御しま
す。
•
ノードシェルから利用可能なdisk maint startコマンドを使用すると、疑いのあるドライブを
Maintenance Centerに手動で割り当てることができます。
対象のドライブが使用中の場合、デフォルトでは、そのドライブの内容がスペア ドライブに複製
されるまではMaintenance Centerに割り当てられません。-iオプションを指定すると、ドライブを
すぐにMaintenance Centerに割り当てることができます。
関連情報
ネットアップ テクニカル レポート3437:『Storage Subsystem Resiliency Guide』
ディスクがMaintenance Centerに割り当てられる条件
特定のディスク エラーが検出されると、Data ONTAPは、そのディスクをテストするために
Maintenance Centerに割り当てようとします。ディスクがMaintenance Centerに割り当てられるには、
一定の条件が満たされている必要があります。
ディスクのエラー数が、そのディスク タイプの許容範囲を超えた場合、Data ONTAPでは次のいず
れかの処理が行われます。
•
disk.maint_center.spares_checkオプションがon(デフォルト)に設定され、複数(マルチ
ディスク キャリアの場合は4本)のスペアが使用可能である場合、Data ONTAPはそのディスク
の使用を停止し、データ管理処理およびテストを行うために、ディスクをMaintenance Centerに
割り当てます。
Data ONTAPによるディスクの管理 | 25
•
disk.maint_center.spares_checkオプションがonに設定され、使用可能なスペアが1本
(マルチディスク キャリアの場合は3本)以下である場合、Data ONTAPはディスクを
Maintenance Centerに割り当てません。
ディスクを障害状態とし、破損ディスクとしてマーキングします。
•
disk.maint_center.spares_checkオプションがoffに設定されている場合、Data ONTAP
は、使用可能なスペア数を確認せずにディスクをMaintenance Centerに割り当てます。
注: CLIからディスクをMaintenance Centerに割り当てる場合は、
disk.maint_center.spares_checkオプションは影響しません。
SSDはMaintenance Centerに割り当てられません。
メディア エラーを防止するためのData ONTAPによる連続メディア スクラビング
連続メディア スクラビングの目的は、メディア エラーを検出して修復することにより、ストレージ シ
ステムがデグレード モードまたは再構築モードの場合に、メディア エラーが原因でストレージ シス
テムが中断する可能性を最小限にすることです。
デフォルトでは、Data ONTAPはストレージ システムのすべてのディスクについて、バックグラウン
ドでメディア エラーの連続メディア スクラビングを実行します。メディア エラーが検出されると、Data
ONTAPはRAIDを利用してデータを再構築し、エラーを修復します。
メディア スクラビングは、連続的なバックグラウンド プロセスです。したがって、ストレージ システム
が明らかにアイドル状態であっても、ディスクのLEDが点滅することがあります。また、ユーザの作
業負荷がまったくない場合でも、何らかのCPUアクティビティが発生する可能性があります。
連続メディア スクラビングによるシステム パフォーマンスへの影響
連続メディア スクラビングで検索されるのはメディア エラーのみなため、システム パフォーマンス
への影響はほとんどありません。また、メディア スクラビングは、処理を高速化するために、使わ
れていないディスク帯域幅や未使用のCPUサイクルを利用して実行されます。ただし、クライアント
のワークロードによって、メディア スクラビングに使用するリソースの速度は大幅に低下します。
クライアントのワークロードが大きい場合には、メディア スクラビング サイクルを完了するまでの最
長許容時間を延長することによって、連続メディア スクラビングで消費されるCPUリソースを削減
できます。これには、raid.media_scrub.rateオプションを使用します。
スケジュールされたRAIDレベルのディスク スクラビングの代わりに連続メディア スクラビングを使用でき
ない理由
連続メディア スクラビング プロセスで処理されるのはメディア エラーのみです。そのため、ストレー
ジ システムの、スケジュールされた完全なRAIDレベルのスクラビングを引き続き実行する必要が
26 | 物理ストレージ管理ガイド
あります。RAIDレベルのスクラビングでは、メディア エラーだけでなく、パリティ エラーとチェックサ
ム エラーも検出および修復されます。
ACPを使用してSAS接続ディスク シェルフのストレージの可用性を
向上する方法
Alternate Control Path(ACP)プロトコルを使用すると、SAS接続ストレージ シェルフをData ONTAP
で管理および制御できるので、ストレージの可用性が向上します。ACPが適切に有効化および設
定されていれば、ACPをアクティブに管理する必要はありません。
ACPを設定しなくても、SAS接続ストレージ シェルフを取り付けることは可能です。しかし、ストレー
ジの可用性と安定性を最大限に高めるには、常にACPを有効化および設定してください。この設
定には、ACPの機能を有効にするために必要な物理的接続の提供と設定パラメータの指定が含
まれます。
ACPはデフォルトでは有効になっています。ACPを有効にしたり、設定を変更したりする必要があ
る場合は、ノードシェルでacpadmin configureコマンドとstorage show acpコマンドを利用で
きます。
SAS接続ストレージ シェルフ サブシステムをアクティブに管理する必要はありません。オペレータ
の手を介さずに、Data ONTAPが自動的にサブシステムを監視および管理します。
SSDを使用したストレージ パフォーマンスの向上
Solid-State Drive(SSD;ソリッド ステート ドライブ)はフラッシュ メディアベースのストレージ デバイ
スで、回転メディアを使用した機械デバイスであるHard Disk Drive(HDD;ハード ディスクドライブ)
よりも全体的なパフォーマンスに優れています。SSDを使用するときは、Data ONTAPでのSSDの
管理方法や、SSDとHDDの機能の違いについて理解しておく必要があります。
SSDは、ストレージ システムのモデルに応じて2種類の方法で使用できます。
•
Flash Poolアグリゲートを作成します。アグリゲートはそのほとんどがHDDで構成され、作業デ
ータセットに対する高性能なキャッシュとして機能するSSDがいくつか含まれます。
•
SSDだけで構成されるアグリゲートを作成します。この場合、SSDは、アグリゲート内のすべて
のデータに対する永続的ストレージとして機能します。
Flash PoolアグリゲートやSSDだけで構成されるアグリゲートの管理方法は、HDDだけで構成され
るアグリゲートと同じです。ただし、SSDとディスクでは、管理方法にいくつか違いがあります。ま
た、Data ONTAPの一部の機能は、SSDやFlash Poolアグリゲートでは使用できません。
関連コンセプト
Flash Poolアグリゲートの機能(136ページ)
Data ONTAPによるディスクの管理 | 27
Flash Pool SSDパーティショニングでFlash Poolアグリゲートのキャッシュ割り当ての柔軟性を拡
張する方法(144ページ)
オールフラッシュによる最適化がノードの動作に及ぼす影響
オールフラッシュFASプラットフォーム モデルでは、オールフラッシュでノードを最適化することがで
きます。オールフラッシュでノードを最適化すると、そのノードにいくつかの追加の要件が適用され
ます。
オールフラッシュでノードが最適化されている場合は、ノードにHDDまたはアレイLUNを接続でき
ません。SSD以外のドライブはサポート対象として認識されません。これにより、オールSSD構成の
ソリューションでのみ実現可能なパフォーマンスをノードが提供できるようになります。
HAペアの両方のパートナーは、オールフラッシュによる最適化の状態が同じ(どちらも最適化され
た状態かされていない状態)である必要があります。HDD RAIDグループを含むアグリゲートを、
オールフラッシュで最適化されたノードに移動することはできません。ボリューム移動には影響は
ありません。オールフラッシュで最適化されたノードと最適化されていないノード間でボリュームを
移動できます。
オールフラッシュで最適化されたノードでは、ルートデータのパーティショニングがデフォルトで有効
になっています。
system node showコマンドを使用してAll-Flash Optimizedを検索することで、ノードがオー
ルフラッシュで最適化されているかどうかを確認できます。
Data ONTAPでのSSDの寿命管理
SSDは、老朽化したときの動作が回転メディア(ハード ディスクドライブ[HDD])の場合と異なりま
す。Data ONTAPでは、ストレージのパフォーマンスと可用性を最大限に高めるためにSSDを監視
および管理します。
回転メディアは、機械的な故障がないかぎり、ほぼ無制限にデータを提供できます。それに対し
て、SSDの場合は、対応できる書き込み処理の回数に(非常に多いとはいえ)制限があります。
SSDの内部にはスペア ブロックと呼ばれるスペア容量が確保されており、書き込み処理の上限に
達したブロックと交換されます。このスペア ブロックをすべて使い切ると、次のブロックで上限に達
したときにディスク障害が発生します。
このようなドライブ障害を回避するために、Data ONTAPでは上限に達する前にSSDを交換します。
スペア ブロックの使用率が事前に設定された割合(約90%)に達すると、次の処理が実行されま
す。
1. AutoSupportメッセージを送信します。
2. スペアSSDを利用できる場合、そのスペアへのディスク コピーを開始します。
3. 利用できるスペアがない場合は、スペアが利用可能になりしだいディスク コピーを開始できる
ように、スペアの定期的なチェックを開始します。
4. ディスク コピーが完了すると、ディスクを障害ディスクとして処理します。
28 | 物理ストレージ管理ガイド
注: Data ONTAPで障害ディスクとして処理されるまで、SSDを交換する必要はありません。ただ
し、ストレージ システムでSSDを使用する場合には、他のすべてのディスク タイプ同様、常に十
分なホット スペアを用意しておくことが重要です。
SSDとHDDの機能の違い
ファームウェアの更新、スクラビング、初期化などの管理作業については、通常、SSDでもHDDで
も同じです。ただし、Data ONTAPの機能の中にはSSDに対応していないものもあるほか、SSDが
サポートされていないハードウェア モデルもあります。
同じRAIDグループ内にSSDとHDDを混在させることはできません。アグリゲートのSSDを置き換え
るときは、別のSSDに置き換える必要があります。同様に、シェルフ内のSSDを物理的に置き換え
るときも、別のSSDに置き換える必要があります。
SSDでは使用できないData ONTAPの機能を次に示します。
•
ディスク完全消去は、一部のパーツ番号のSSDではサポートされていません。
•
Maintenance Center
マルチディスク キャリアのストレージ シェルフの使用に関するガイド
ラインと要件
マルチディスク キャリアのディスク管理に必要な追加手順のほとんどは、Data ONTAPで自動的に
処理されます。ただし、ストレージ アーキテクチャにマルチディスク キャリアのディスク シェルフを
組み込む前に、管理や設定に関する理解しておくべきいくつかの追加要件があります。
DS4486などのマルチディスク キャリアのディスク シェルフのストレージを使用する場合は、以下に
関するガイドラインと要件を把握しておく必要があります。
•
マルチディスク キャリアの取り外しが必要になった場合に、RAIDグループへの影響を回避す
るためにData ONTAPで実行されるプロセス
•
ディスク障害が発生したときにマルチディスク キャリアを安全に取り外すタイミング
•
マルチディスク キャリアのディスク用に最低限用意しておくべきスペア数
•
マルチディスク キャリアのディスク シェルフ構成
•
マルチディスク キャリアのディスク シェルフを使用する場合のアグリゲート構成要件
•
マルチディスク キャリアのディスク シェルフのディスクをアグリゲートで使用する場合のガイドラ
インとベストプラクティス
Data ONTAPによるディスクの管理 | 29
マルチディスク キャリアを削除する必要がある場合に、Data ONTAPがRAIDへの影
響を回避する方法
Data ONTAPでは、どのRAIDグループにも影響を与えずにキャリア内の両方のディスクを交換で
きるよう、特別な処理が実行されます。このプロセスを理解することにより、マルチディスク キャリ
アのストレージ シェルフのディスクに障害が発生した場合の状況について把握することができま
す。
DS4486などのマルチディスク キャリアのストレージ シェルフは、他のSAS接続ストレージ シェルフ
の2倍のストレージ密度があります。これは、1つのディスク キャリアに2本のディスクを格納するこ
とで実現されます。同じディスク キャリアに格納されている2本のディスクは、同時に削除や挿入を
行う必要があります。つまり、キャリア内の一方のディスクを交換する必要がある場合、キャリア内
のもう一方のディスクも何も問題がなくても交換する必要があります。
アグリゲートから2つのデータ ディスクまたはパリティ ディスクを同時に取り外すことは、2つの
RAIDグループがデグレード モードになるか、1つのRAIDグループがダブル デグレード モードにな
るため、望ましい状態ではありません。この状況を回避するために、Data ONTAPは障害が発生し
たディスクに通常の再構築を実行すると同時に、そのディスクのキャリア メイトに対するディスク退
避操作を開始します。ディスク退避操作では、キャリアを取り外したあともディスクのデータを継続
して使用できるように、キャリア メイト内のデータを別のキャリア内のディスクにコピーします。退避
操作の間、退避中のディスクのステータスはevacuatingと表示されます。
さらに、Data ONTAPは同じRAIDグループに2つのキャリア メイトができるのを避ける、最適なレイ
アウトの作成を試みます。他のディスクがどのようにレイアウトされているかによって、最適なレイ
アウトを実現するために、最大で3台のディスクに連続した退避操作が必要になります。ディスクの
サイズとストレージ システムの負荷によって、各ストレージの退避操作に数時間かかることがある
ため、スワップ プロセス全体では、1日以上の時間を要する場合があります。
スワップ操作のサポートに使用できるスペアが不十分である場合、Data ONTAPは警告を発行し
て、十分なスペアが用意されるまでスワップの実行を待機します。
マルチディスク キャリアを安全に取り外せるかどうかを確認する方法
マルチディスク キャリアを安全に取り外す準備ができる前に取り外すと、RAIDグループがデグレ
ード状態になったり、ストレージが停止してしまうこともあります。Data ONTAPでは、マルチディスク
キャリアを安全に取り外せるかどうかをいくつかの方法で確認することができます。
マルチディスク キャリアの交換が必要なときは、キャリアを取り外す前に、次のことを確認する必
要があります。
•
キャリアを取り外す準備ができたことを示すAutoSupportメッセージが記録されている。
•
キャリアを取り外す準備ができたことを示すEMSメッセージが記録されている。
•
キャリアの両方のディスクが破損したディスクのリストに表示されている。
破損したディスクのリストは、storage disk show -brokenコマンドを使用して確認できま
す。
キャリアを取り外すために退避されたディスクの停止理由はevacuatedと表示されます。
30 | 物理ストレージ管理ガイド
•
キャリアのアンバーのLEDが点灯している。
•
キャリアのグリーンのLEDがアクティビティがないことを示している。
注意: 障害が発生したディスクのキャリア メイトを再利用することはできません。障害が発生した
ディスクを含むマルチディスク キャリアを取り外した場合は、キャリアごと交換する必要がありま
す。
マルチディスク キャリアのディスクのスペアに関する要件
ストレージの冗長性を最適化し、Data ONTAPによるディスク コピーの所要時間を最小限に抑え
て、最適なディスク レイアウトを実現するためには、マルチディスク キャリアのディスクに対して適
切な数のスペアを用意しておくことが不可欠です。
マルチディスク キャリアのディスクに対しては、常に2つ以上のホット スペアを用意しておく必要が
あります。Maintenance Centerを使用できるようにし、同時に複数のディスク障害が発生した場合の
問題を回避するには、4つ以上のホット スペアを用意して安定した運用を確保し、障害が発生した
ディスクを迅速に交換するようにします。
Data ONTAPでは、同時に2つのディスクで障害が発生した場合に利用できるホット スペアが2つし
かないと、障害が発生したディスクとそのキャリア メイトの両方のコンテンツをスペア ディスクにス
ワップできないことがあります。このような状況を「ステールメイト」と呼びます。この状況が発生す
ると、EMSメッセージとAutoSupportメッセージで通知されます。交換用キャリアが使用できるように
なったら、EMSメッセージの説明に従うかテクニカル サポートに問い合わせて、ステールメイトから
リカバリする必要があります。
マルチディスク キャリアのストレージ シェルフのシェルフ構成に関する要件
マルチディスク キャリアのディスク シェルフとシングルディスク キャリアのディスク シェルフ(標準
のディスク シェルフ)を、同じストレージ システムの同じスタック内に混在させることができます。
マルチディスク キャリアのストレージ シェルフのディスクで構成されるアグリゲートの要
件
マルチディスク キャリアのディスク シェルフのディスクで構成されるアグリゲートは、いくつかの構
成要件を満たす必要があります。
マルチディスク キャリアのディスク シェルフのディスクで構成されるアグリゲートには、次の構成要
件が適用されます。
•
RAIDタイプはRAID-DPである必要があります。
•
アグリゲート内のすべてのHDDのData ONTAPディスク タイプを同じにする必要があります。
アグリゲートはFlash Poolアグリゲートにできます。
•
アグリゲートがミラーされている場合は、両方のプレックスのData ONTAPディスク タイプ(Flash
Poolアグリゲートの場合はそれぞれのタイプ)を同じにする必要があります。
Data ONTAPによるディスクの管理 | 31
関連コンセプト
Flash Poolアグリゲートの機能(136ページ)
マルチディスク キャリアのストレージ シェルフのディスクをアグリゲートで使用する場合
の考慮事項
マルチディスク キャリアのディスク シェルフのディスクをアグリゲートで使用する場合の要件とベス
トプラクティスを確認しておくと、ストレージの冗長性を最大限に高め、ディスク障害による影響を最
小限に抑えることができます。
マルチディスク キャリアのディスクの場合、Data ONTAPのディスク タイプは常にMSATAになりま
す。MSATAディスクは、同じアグリゲート内でシングルキャリアのディスク シェルフにあるHDDと混
在させることはできません。
MSATAディスクで構成されるアグリゲートを作成したり、そのサイズを拡張したりするときは、ディ
スクのレイアウトに関して次の要件が適用されます。
•
Data ONTAPでは、同じキャリアの2つのディスクを同じRAIDグループに配置することはできま
せん。
•
同じキャリアの2つのディスクを別々のプールに配置しないでください。これは、そのシェルフか
ら両方のプールにディスクを提供している場合でも同様です。
•
同じキャリアのディスクを異なるノードに割り当てないでください。
•
レイアウトを最適にするには、特定のディスクを指定する代わりに、使用または追加するディス
クがData ONTAPで自動的に選択されるようにします。
ディスクや利用可能なスペアの配置が原因で最適なレイアウトにならない場合、Data ONTAP
によって、最適なレイアウトになるまでディスクのコンテンツが自動的にスワップされます。スワ
ップに対応できる十分なスペアがないと、Data ONTAPで警告が表示され、必要な数のホット ス
ペアを用意するまでディスクのスワップは実行されません。最適なレイアウトにならないディスク
を指定する場合は、操作を強制的に実行する必要があり、強制しない場合は失敗します。
アグリゲート作成例
MSATAディスクを使用してアグリゲートを作成する場合は、ディスクのタイプとサイズを指定
できますが、ディスクの選択とレイアウトについてはData ONTAPで自動的に行うことができ
ます。このコマンドの例を次に示します。
storage aggregate create -aggregate c1n1_aggr1 -node node1 disktype MSATA -diskcount 14
32 | 物理ストレージ管理ガイド
ルートデータのパーティショニングの概要
一部のプラットフォーム モデルでは、パーティショニングを使用して、ルート アグリゲートが使用す
るスペースを削減できます。データ アグリゲートの使用スペースは確保したまま、ストレージ利用
率を向上できます。ルートデータのパーティショニング(共有ドライブとも呼ばれます)では、ディスク
およびアグリゲートの表示と管理の方法が変わります。
ルートデータのパーティショニングの機能
エントリレベルおよびAll Flash FAS(AFF;オールフラッシュFAS)のプラットフォーム モデルでは、ド
ライブ全体ではなくドライブの一部でアグリゲートを構成できます。
通常、ルートデータのパーティショニングは工場出荷前に有効になっており、設定も済んでいます。
また、ブート メニューのオプション4を使用してシステムの初期化を開始することによってルートデ
ータのパーティショニングを設定することもできます。システムの初期化を実行すると、ノードのディ
スクのデータがすべて消去され、ノード構成が工場出荷時のデフォルトの設定にリセットされます。
ルートデータのパーティショニングを使用するようにノードが設定されている場合、パーティショニン
グされたディスクには2つのパーティションがあります。
小さいほうのパーティションはルート アグリゲートの構成に使用されます。大きいほうのパーティシ
ョンはデータ アグリゲートで使用されます。パーティションのサイズはData ONTAPで設定され、シ
ステムの初期化時にルート アグリゲートを構成するために使用するディスクの数によって異なりま
す (アグリゲートを構成するために使用するディスクの数が多いほど、ルート パーティションのサイ
ズは小さくなります)。システムの初期化後、パーティションのサイズは固定されます。システムの
初期化後にパーティションまたはディスクをルート アグリゲートに追加すると、ルート アグリゲート
のサイズが拡張されますが、ルート パーティションのサイズは変わりません。
パーティションは物理ディスクと同じようにRAIDで使用され、適用される要件もまったく同じです。
たとえば、パーティショニングされたドライブで構成されるRAIDグループにパーティショニングされ
ていないドライブを追加すると、パーティショニングされていないドライブがRAIDグループ内のドラ
イブのパーティションのサイズに合わせてパーティショニングされ、残りのディスクは使用されませ
ん。
Data ONTAPによるディスクの管理 | 33
パーティショニングされたディスクを別のノードに移動したり、別のアグリゲートで使用したりしても、
パーティショニングは維持されます。パーティショニングされたディスクで構成されるRAIDグループ
でのみディスクを使用できます。
関連情報
clustered Data ONTAP 8.3 システム アドミニストレーション ガイド(クラスタ管理)
ルートデータのパーティショニングがストレージ管理に及ぼす影響
一般に、ルートデータのパーティショニングを使用しているノードの管理方法は物理ディスクのみを
使用するノードの管理方法と同じです。ただし、パーティショニングされたディスクの表示方法は少
し異なるので、一部の管理作業ではそれらのディスクについて考慮する必要があります。
ルート パーティションとデータ パーティションは、物理ディスクと同じ方法でRAIDサブシステムによ
って使用されます。適用される要件とベストプラクティスも同じです。スペア管理の際に従うベストプ
ラクティスも同じであり、ルートデータのパーティショニングはディスク名には影響しません。
ルートデータのパーティショニングを使用しているノードを処理する場合は、次の作業の方法が若
干異なります。
•
アグリゲートへのストレージの作成と追加
スペア パーティションの表示方法が異なります(rootまたはdata)。また、コア ファイルの作成
をサポートするために、ルート スペアとデータ スペアを同じディスクに対して提供する必要があ
ります。さらに、物理ディスクとパーティションを同じRAIDグループに混在させているかどうか、
および混在させている場合の影響を確認しておく必要があります。
•
アグリゲートのドライブとRAIDグループの情報の表示
パーティショニングされたディスクのPosition列にはsharedと表示されます(RAIDディスク タイ
プは表示されません)。
•
所有権の割り当てと削除
所有権の自動割り当てをパーティショニングされたディスクに対して使用できます。パーティショ
ニングされたディスクの所有権を手動で割り当てたり、削除したりする必要がある場合は、両方
のパーティションおよびコンテナ ディスクに対してそれらの処理を行ってください。
•
ディスクの取り外しと交換
パーティショニングされたディスクを取り外すと、複数のアグリゲートに影響が及ぶ可能性があ
ります。
関連コンセプト
ルート アグリゲート用にパーティショニングされるドライブ(34ページ)
ノードからのディスクの取り外し(47ページ)
ルートデータのパーティショニングの使用に関する要件(36ページ)
34 | 物理ストレージ管理ガイド
関連タスク
ルートデータのパーティショニングを使用するアグリゲートの作成(170ページ)
ルートデータのパーティショニングを使用するアグリゲートのサイズの拡張(174ページ)
アグリゲートのドライブとRAIDグループの情報の確認(191ページ)
ルートデータのパーティショニング用にパーティショニングされるディスクの所有権の割り当て
(62ページ)
関連参照情報
ディスクの管理用コマンド(54ページ)
ルート アグリゲート用にパーティショニングされるドライブ
ルート アグリゲートで使用するためにパーティショニングされるドライブは、システム構成によって
異なります。ルート アグリゲートで使用するドライブ数を把握しておくと、ルート パーティション用に
リザーブするドライブの容量とデータ アグリゲートで使用可能な容量を決定する際に役立ちます。
ルートデータのパーティショニングは、2種類のプラットフォーム(エントリレベル プラットフォーム、
AFFプラットフォーム)でサポートされます。
エントリレベル プラットフォームでは、内蔵ドライブのみパーティショニングされます。
AFFプラットフォームでは、システムの初期化時にコントローラに接続されたすべてのドライブがパ
ーティショニングされます(上限はノードあたり24個です)。システムの構成後に追加されたドライブ
はパーティショニングされません。
ルートデータのパーティショニングの標準的なレイアウト
ルート アグリゲートは出荷時に設定されているので、変更することはできません。ただし、要件に
応じて、複数の異なる構成でデータ パーティションを使用できます。
次の図は、パーティショニングされたディスクが12本あるアクティブ / パッシブ構成のパーティション
を設定する1つの方法を示しています。ルート アグリゲートは2つ(各ノードに1つ)あり、複数の小さ
なパーティションで構成されています。各ルート アグリゲートにはスペア パーティションが1つありま
す。RAID-DPデータ アグリゲートは1つだけです。このアグリゲートには、2つのパリティ ディスク
パーティションと1つのスペア パーティションが含まれます。
Data ONTAPによるディスクの管理 | 35
次の図は、パーティショニングされたディスクが12本あるアクティブ / アクティブ構成のパーティショ
ンを設定する1つの方法を示しています。この場合、RAID-DPデータ アグリゲートは2つあり、それ
ぞれに専用のデータ パーティション、パリティ パーティション、およびスペア パーティションが含ま
れます。各ディスクは1つのノードにのみ割り当てられます。これは、1本のディスクに障害が発生し
た場合に両方のノードに影響が及ぶことを回避するためのベストプラクティスです。
データ パーティション、パリティ パーティション、およびスペア パーティションに使用するディスクの
構成は、この図とまったく同じにはならない場合もあります。たとえば、複数のパリティ パーティショ
ンが必ずしも同じディスクにアライメントされるとは限りません。
36 | 物理ストレージ管理ガイド
ルートデータのパーティショニングの使用に関する要件
ほとんどの場合、ルートデータのパーティショニング用にパーティショニングされたドライブは、共有
されない物理ドライブとまったく同じように使用できます。ただし、構成によってはルートデータのパ
ーティショニングを使用できません。
次のストレージ デバイスをパーティショニングすることはできません。
•
アレイ LUN
•
Data ONTAP-vで作成された仮想ディスク
•
内蔵ドライブとして使用できないタイプのHDD(ATA、FCAL、およびMSATA)
•
100GB SSD
次のテクノロジではルートデータのパーティショニングを使用できません。
•
MetroCluster
•
Data ONTAP-v
•
RAID 4
パーティショニングされたドライブで構成されるアグリゲートのRAIDタイプはRAID-DPである必
要があります。
ルートデータのパーティショニングを設定するためのノードの初期化
プラットフォーム モデルでルートデータのパーティショニングをサポートしているノードを初期化する
場合は、ルートデータのパーティショニングを正しく設定するために、いくつかの手順を完了してか
ら初期化を実行する必要があります。
開始する前に
•
注意: 保持する必要のあるデータをすべて別のノードに移行しておく必要があります。
この手順では、HAペアのデータがすべて消去され、取得できません。
•
ノード構成でルートデータのパーティショニングがサポートされている必要があります。
ルートデータのパーティショニングの要件をノードが満たしていない場合は、ルートデータのパ
ーティショニングが設定されません。
•
初期化するノードまたはHAペアは、クラスタ内の他のノードと組み合わせたり、データを提供し
たりすることはできません。
•
ノードでData ONTAP 8.3以降が実行されている必要があります。
•
テイクオーバーまたはギブバックを実行中のノードは使用できません。
Data ONTAPによるディスクの管理 | 37
タスク概要
この手順は、エントリレベル プラットフォーム モデルとオールフラッシュFASプラットフォーム モデル
の両方に使用できます。エントリレベル プラットフォーム モデルの場合は、内蔵ディスクのみパー
ティショニングされます。AFFプラットフォーム モデルの場合は、コントローラに接続されているSSD
の数に応じて、最大48本のSSDがパーティショニングされます。
この手順はHAペアで実行されるため、ノードAとノードBという2つのノードが使用されます。ただ
し、コントローラが1台だけの場合もこの手順を使用できます。その場合、ノードBのみに関する手
順は無視してください。
HAペアに接続されているストレージの容量とタイプによっては、この手順が長時間に及ぶ可能性
があります。
手順
1. ノード構成(ネットワーク構成、ライセンスの値、およびパスワードを含む)を書き留めておきま
す。現在と同じストレージ アーキテクチャをリストアする場合は、そのアーキテクチャも書き留め
ておきます。
システムを初期化すると、現在のノード構成情報はすべて消去されます。
2. 2ノード クラスタでこの手順を実行する場合は、HA機能を無効にします。
cluster ha modify -configured false
この処理はどちらのノードからも実行できます。
3. 両方のノードでストレージ フェイルオーバーを無効にします。
storage failover modify -enabled false -node nodeA,nodeB
4. 両方のノードで、メンテナンス モードでブートします。
a. システムを停止します。
system node halt -node node_name
イプシロンに関するエラー メッセージは無視してかまいません。2番目のノードについては、
プロンプトが表示されたら、-skip-lif-migration-before-shutdownフラグを指定でき
ます。
b. LOADERプロンプトで、Data ONTAPをブートします。
boot_ontap
c. ブート プロセスを監視します。プロンプトが表示されたら、Ctrl+Cキーを押してブート メニュ
ーを表示します。
38 | 物理ストレージ管理ガイド
例
*******************************
*
*
* Press Ctrl-C for Boot Menu. *
*
*
*******************************
d. オプション5 Maintenance mode bootを選択します。
例
Please choose one of the following:
(1) Normal Boot.
(2) Boot without /etc/rc.
(3) Change password.
(4) Clean configuration and initialize all disks.
(5) Maintenance mode boot.
(6) Update flash from backup config.
(7) Install new software first.
(8) Reboot node.
Selection (1-8)? 5
5. 両方のノードについて、外付けディスクがノードに接続されている場合は、ルート アグリゲート
を含むすべてのアグリゲートを削除します。
a. すべてのアグリゲートを表示します。
aggr status
b. 各アグリゲートをオフラインにします。
aggr offline aggr_name
c. 各アグリゲートを削除します。
aggr destroy aggr_name
すべてのディスクがスペアに変換されます。
6. HAペアのドライブがパーティショニングされていないことを確認します。
a. 両方のノードが所有するドライブをすべて表示します。
disk show
いずれかのドライブに3つのエントリが表示される場合、そのドライブはパーティショニングさ
れています。パーティショニングされたディスクがノードにない場合は、手順7に進みます。
次の例は、パーティショニングされたドライブ0a.10.11を示します。
Data ONTAPによるディスクの管理 | 39
例
DISK
-----------0a.10.11
0a.10.11P1
0a.10.11P2
OWNER
------------sys1(536880559)
sys1(536880559)
sys1(536880559)
POOL
----Pool0
Pool0
Pool0
SERIAL NUMBER
------------N11YE08L
N11YE08LNP001
N11YE08LNP002
HOME
------------sys1(536880559)
sys1(536880559)
sys1(536880559)
b. コンテナ ディスクとは所有者が異なるパーティションを特定します。
例
次の例では、コンテナ ディスク(0a.10.14)の所有者はsys1ですが、パーティション ディスク
(0a.10.14P1)の所有者はsys2です。
DISK
-----------0a.10.14
0a.10.14P1
0a.10.14P2
OWNER
------------sys1(536880559)
sys2(536880408)
sys1(536880559)
POOL
----Pool0
Pool0
Pool0
SERIAL NUMBER
------------N11YE08L
N11YE08LNP001
N11YE08LNP002
HOME
------------sys1(536880559)
sys2(536880408)
sys1(536880559)
c. コンテナ ディスクとは異なるノードが所有するすべてのパーティションの所有権を更新しま
す。
disk assign disk_partition -f -o container_disk_owner
例
コンテナ ディスクとは異なるノードが所有するパーティションを含む各ディスクについて、次
の例に示すようなコマンドを入力します。
disk assign 0a.10.14P1 -f -o sys1
d. コンテナ ディスクを所有するノード上の、パーティションを含む各ドライブについて、パーティ
ションを削除します。
disk unpartition disk_name
disk_nameは、パーティション情報を除くディスクの名前です。たとえば、「0a.10.3」のように
なります。
例
パーティションを含む各ディスクについて、次の例に示すようなコマンドを入力します。
disk unpartition 0a.10.14
7. 両方のノードで、ディスク所有権を削除します。
disk remove_ownership
8. 両方のノードで、接続されているすべてのドライブの所有権が設定されていないことを確認しま
す。
disk show
40 | 物理ストレージ管理ガイド
例
*> disk show
Local System ID: 465245905
disk show: No disk match option show.
9. 両方のノードで、LOADERメニューに戻ります。
halt
10. ノードAでのみ、ドライブの初期化を開始します。
a. LOADERプロンプトで、Data ONTAPをブートします。
boot_ontap
b. ブート プロセスを監視します。プロンプトが表示されたら、Ctrl+Cキーを押してブート メニュ
ーを表示します。
c. オプション4 Clean configuration and initialize all disksを選択します。
ドライブの初期化が開始されると、コンソールで一連の点滅動作が表示されます。
11. 数分後にノードAのドライブの初期化が完了したら、ノードBについて前述の手順を繰り返しま
す。
両方のノードのドライブのうち、パーティショニングされるドライブが初期化されます。初期化プ
ロセスが完了すると、ノードがノードのセットアップ ウィザードに戻ります。
12. システム構成をリストアします。
13. 両方のノードのルート アグリゲートがパーティションで構成されていることを確認します。
storage aggregate show-status
Position列にはsharedと表示され、使用可能なサイズは物理サイズのごく一部です。
Owner Node: sys1
Aggregate: aggr0_1 (online, raid_dp) (block checksums)
Plex: /aggr0_1/plex0 (online, normal, active, pool0)
RAID Group /aggr0_1/plex0/rg0 (normal, block checksums)
Position
-------shared
shared
shared
shared
shared
Disk
--------------------------0a.10.10
0a.10.0
0a.10.11
0a.10.6
0a.10.5
Pool
---0
0
0
0
0
Usable Physical
Type
RPM
Size
Size Status
----- ------ -------- -------- -------BSAS
7200 73.89GB 828.0GB (normal)
BSAS
7200 73.89GB 828.0GB (normal)
BSAS
7200 73.89GB 828.0GB (normal)
BSAS
7200 73.89GB 828.0GB (normal)
BSAS
7200 73.89GB 828.0GB (normal)
14. System Setupを実行し、初期設定に応じて、HAペアを再設定するか、クラスタに再追加します。
関連コンセプト
ルート アグリゲート用にパーティショニングされるドライブ(34ページ)
ルートデータのパーティショニングの使用に関する要件(36ページ)
Data ONTAPによるディスクの管理 | 41
関連情報
Clustered Data ONTAP 8.3 Software Setup Guide
clustered Data ONTAP 8.3 ハイアベイラビリティ構成ガイド
ルートデータのパーティショニングを使用しているノードでのアクティブ / パッシブ構成
の設定
工場出荷前に、ルートデータのパーティショニングを使用するようにHAペアが構成されている場合
は、アクティブ / アクティブ構成で使用するために、データ パーティションの所有権がペアの両方の
ノードに分割されます。アクティブ / パッシブ構成でHAペアを使用する場合は、データ アグリゲート
を作成する前にパーティションの所有権を更新する必要があります。
開始する前に
•
アクティブ ノードおよびパッシブ ノードとして指定するノードを決めておく必要があります。
•
HAペアでストレージ フェイルオーバーを設定する必要があります。
タスク概要
このタスクは、2つのノード(ノードAとノードB)で実行されます。
コマンドはすべてクラスタシェルで入力します。
この手順は、パーティショニングされたディスクからデータ アグリゲートが作成されていないノード
用です。
手順
1. データ パーティションの現在の所有権を確認します。
storage aggregate show-spare-disks
例
1つのノードが半数のデータ パーティションを所有し、もう1つのノードが残り半数のデータ パー
ティションを所有していることがわかります。すべてのデータ パーティションがスペアである必要
があります。
cluster1::> storage aggregate show-spare-disks
Original Owner: cluster1-01
Pool0
Partitioned Spares
Disk
--------------------------1.0.0
1.0.1
1.0.5
1.0.6
1.0.10
1.0.11
Local
Local
Data
Root Physical
Type
RPM Checksum
Usable
Usable
Size
----- ------ -------------- -------- -------- -------BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB 73.89GB 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
42 | 物理ストレージ管理ガイド
Original Owner: cluster1-02
Pool0
Partitioned Spares
Disk
--------------------------1.0.2
1.0.3
1.0.4
1.0.7
1.0.8
1.0.9
12 entries were displayed.
Local
Local
Data
Root Physical
Type
RPM Checksum
Usable
Usable
Size
----- ------ -------------- -------- -------- -------BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB 73.89GB 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
2. advanced権限レベルに切り替えます。
set advanced
3. パッシブ ノードとして指定するノードが所有する各データ パーティションをアクティブ ノードに割
り当てます。
storage disk assign -force -data true -owner active_node_name -disk
disk_name
パーティションをディスク名の一部に含める必要はありません。
例
再割り当てする必要のある各データ パーティションについて、次の例に示すようなコマンドを入
力します。
storage disk assign -force -data true -owner cluster1-01 -disk 1.0.3
4. すべてのパーティションがアクティブ ノードに割り当てられていることを確認します。
例
cluster1::*> storage aggregate show-spare-disks
Original Owner: cluster1-01
Pool0
Partitioned Spares
Disk
--------------------------1.0.0
1.0.1
1.0.2
1.0.3
1.0.4
1.0.5
1.0.6
1.0.7
1.0.8
1.0.9
1.0.10
1.0.11
Local
Local
Data
Root Physical
Type
RPM Checksum
Usable
Usable
Size
----- ------ -------------- -------- -------- -------BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB 73.89GB 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
BSAS
7200 block
753.8GB
0B 828.0GB
Original Owner: cluster1-02
Pool0
Partitioned Spares
Disk
Type
RPM Checksum
Local
Data
Usable
Local
Root Physical
Usable
Size
Data ONTAPによるディスクの管理 | 43
--------------------------- ----- ------ -------------- -------- -------- -------1.0.8
BSAS
7200 block
0B 73.89GB 828.0GB
13 entries were displayed.
cluster1-02が引き続きスペア ルート パーティションを所有していることに注意してください。
5. admin権限に戻ります。
set admin
6. データ アグリゲートを作成します。少なくとも1つのデータ パーティションをスペアとして残してお
いてください。
storage aggregate create new_aggr_name -diskcount number_of_partitions node active_node_name
データ アグリゲートが作成され、アクティブ ノードがそのアグリゲートを所有します。
関連情報
clustered Data ONTAP 8.3 ハイアベイラビリティ構成ガイド
ノードへのディスクの追加
ホット スペアの数を増やしたり、アグリゲートのスペースを追加したり、ディスクを交換したりする場
合は、ノードにディスクを追加します。
開始する前に
追加するディスクのタイプがプラットフォーム モデルでサポートされていることを確認しておく必要
があります。
タスク概要
この手順は、ノードに物理ディスクを追加する場合の手順です。Data ONTAP-vテクノロジに基づく
プラットフォームなど、仮想ディスクを使用するノードを管理している場合は、Data ONTAP-vシステ
ムに付属のインストレーション アドミニストレーション ガイドを参照してください。
手順
1. ネットアップ サポート サイトで、新しいバージョンのディスク ファームウェア、シェルフ ファーム
ウェア、Disk Qualification Packageファイルがないかどうかを確認します。
最新バージョンがノードにインストールされていない場合は、新しいディスクを追加する前に更
新する必要があります。
2. ディスク シェルフのハードウェア ガイドまたはプラットフォームのハードウェア サービス ガイドに
従ってディスクを取り付けます。
44 | 物理ストレージ管理ガイド
ノードおよびプールに割り当てられるまで新しいディスクは認識されません。新しいディスクを手
動で割り当てることができます。また、ディスクの自動割り当てルールを適用しているノードの
場合は、新しいディスクが自動的に割り当てられるまで待つこともできます。
3. 新しいディスクがすべて認識されたら、次のコマンドを入力して、追加されたディスクと所有権を
確認します。
storage aggregate show-spare-disks
新しいディスクが正しいノードに所有されていること、および正しいプールに割り当てられている
ことを確認してください。
4. オプション: 次のコマンドを入力して、新しく追加したディスクを初期化します。
storage disk zerospares
別のData ONTAPアグリゲートで以前使用されていたディスクは、アグリゲートに追加する前に
初期化する必要があります。この時点でディスクを初期化しておくと、アグリゲートのサイズを
すぐに拡張する必要がある場合に時間を短縮できます。ディスク初期化コマンドはバックグラウ
ンドで実行されます。ノード内の初期化されていないディスクのサイズによっては、初期化が完
了するまでに数時間かかることもあります。
タスクの結果
新しいディスクをアグリゲートに追加したり、既存のディスクと交換したり、ホット スペアのリストに
加えたりできるようになります。
関連コンセプト
ディスクの所有権自動割り当ての仕組み(59ページ)
ディスクの所有権を割り当てる際のガイドライン(61ページ)
関連情報
NetApp Hardware Universe
ネットアップのダウンロード:ディスク ドライブおよびファームウェア
Disk Qualification Packageの更新が必要なタイミング
Disk Qualification Package(DQP)は、新しく認定されたドライブに対する完全なサポートを追加す
るためのパッケージです。ドライブ ファームウェアを更新したり、新しいタイプやサイズのドライブを
クラスタに追加したりする前に、DQPを更新する必要があります。DQPは定期的に(四半期ごと、
半年ごとなど)更新することを推奨します。
DQPは、次の場合にダウンロードしてインストールする必要があります。
•
新しいタイプやサイズのドライブをノードに追加したとき
たとえば、1TBのドライブを使用している環境で2TBのドライブを追加した場合、DQPの最新版
がないかどうかを確認する必要があります。
Data ONTAPによるディスクの管理 | 45
•
ディスク ファームウェアを更新したとき
•
新しいディスク ファームウェアやDQPファイルが利用可能になったとき
•
新しいバージョンのData ONTAPにアップグレードするとき
Data ONTAPのアップグレードの一環としてDQPが更新されることはありません。
関連情報
ネットアップのダウンロード:Disk Qualification Package
ネットアップのダウンロード:ディスク ドライブおよびファームウェア
アグリゲートで使用中のディスクの交換
RAIDグループから他と異なるディスクを取り除くには、アグリゲートで使用中のディスクを交換しま
す。RAIDグループの構成ディスクを均一にすると、ストレージ システムのパフォーマンスの最適化
に役立ちます。
開始する前に
適切なタイプ、サイズ、速度、チェックサム方式のホット スペア ディスクが、すでにストレージ シス
テムに搭載されている必要があります。スペア ディスクは、交換するディスクと同じシステム、同じ
プールに割り当てられている必要があります。交換するディスクがパーティショニングされている場
合やストレージ プール内にある場合は、HAペアのどちらのノードでもスペア ディスク(該当する場
合は、そのパーティション)を所有できます。
マルチディスク キャリアのディスクの場合、ディスクのレイアウトが最適になるようにするには、使
用可能なホット スペア ディスクを少なくとも2つ用意しておく必要があります。
タスク概要
容量の小さいディスクを容量の大きいディスクに交換すると、容量の大きいディスクが小さいディス
クのサイズに合うように縮小されます。したがって、アグリゲートの使用可能容量は増えません。
手順
1. ディスクを交換します。
storage disk replace -disk old_disk_name -replacement
new_spare_disk_name -action start
ディスク交換操作を停止する場合は、-action stopパラメータを使用します。
タスクの結果
元のディスクがスペア ディスクに変換され、アグリゲートで新しいディスクが使用されるようになり
ます。
46 | 物理ストレージ管理ガイド
自己暗号化ディスクの交換
Self-Encrypting Disk(SED;自己暗号化ディスク)の交換は通常のディスクの交換と同様です。ただ
し、ディスクの交換後にいくつかの追加の手順を実行して、ストレージ暗号化を再度有効にする必
要があります。
開始する前に
ストレージ システムのSEDで使用されているキーを確認しておき、交換後のSEDで同じキーを使用
するように設定してください。
手順
1. 次のコマンドを入力して、再構築が開始されていることを確認します。
aggr status -r
ディスクのステータスが「Reconstructing」と表示されます。
2. ディスク シェルフ モデルのハードウェア ガイドの指示に従い、障害ディスクを取り外して、新し
いSEDに交換します。
3. 次のコマンドを入力して、新しく交換したSEDの所有権を割り当てます。
disk assign disk_name
4. 次のコマンドを入力して、新しいディスクが適切に割り当てられたことを確認します。
disk encrypt show
新しく追加したディスクが出力に表示されます。
5. 次のコマンドを入力して、ディスクを暗号化します。
disk encrypt rekey key_id disk_name
6. 次のコマンドを入力して、交換プロセスを完了します。
disk encrypt lock disk_name
新しく交換したSEDが使用可能な状態になり、このシステムでストレージ暗号化が有効になりま
す。
Data ONTAPによるディスクの管理 | 47
データ ディスクのホット スペアへの変換
データ ディスクが含まれているアグリゲートを削除することによって、データ ディスクをホット スペ
アに変換できます。
開始する前に
ボリュームが含まれているアグリゲートは削除できません。
タスク概要
データ ディスクをホット スペアに変換しても、そのディスクの所有権情報は変更されません。ディス
クを別のストレージ システムに移動する前に、所有権情報を削除する必要があります。
手順
1. 次のコマンドを入力して、ディスクが含まれているアグリゲートを削除します。
storage aggregate delete -aggregate aggr_name
そのアグリゲートで使用されているすべてのディスクは、ホット スペア ディスクに変換されま
す。
ノードからのディスクの取り外し
ノードからのディスクの取り外し方法は、ディスクがどのように使用されていたかによって異なりま
す。適切な手順で取り外せば、不要なAutoSupport通知は生成されません。また、そのディスクを
別のノードで再利用する際に、正常に機能させることができます。
データ ディスクを取り外すことによって、アグリゲート内のディスクの数を減らすことはできません。
アグリゲート内のデータ ディスクの数を減らす唯一の方法は、データを複製し、データ ディスクの
数がより少ない新しいアグリゲートへ転送することです。
パーティショニングされたドライブを取り外す場合は、両方のパーティションの使用方法を考慮する
必要があります。また、ドライブを取り外す前にパーティショニングを解除する必要があります。
マルチディスク キャリアのディスクを取り外す場合は、特に注意が必要です。
関連コンセプト
ルートデータのパーティショニングの概要(32ページ)
マルチディスク キャリアを安全に取り外せるかどうかを確認する方法(29ページ)
48 | 物理ストレージ管理ガイド
障害ディスクの取り外し
完全な障害状態にあるディスクは、Data ONTAPで使用可能なディスクとみなされなくなり、ディスク
シェルフからただちに取り外すことができます。ただし、障害が部分的なものである場合は、高速
RAIDリカバリ プロセスが完了するまで接続したままにしておく必要があります。
タスク概要
障害が発生したり、エラー メッセージが頻繁に生成されたりするために取り外したディスクは、その
ストレージ システムまたは別のストレージ システムで再利用しないでください。
手順
1. 次のコマンドを入力して、障害ディスクのディスクIDを検索します。
storage disk show -broken
障害ディスクのリストにディスクが表示されない場合、障害が部分的なものであるために高速
RAIDリカバリの実行中である可能性があります。この場合は、障害ディスクのリストに表示さ
れるまで(つまり高速RAIDリカバリ プロセスが完了するまで)待ってから、ディスクを取り外して
ください。
2. 次のコマンドを入力して、取り外すディスクの物理的な場所を調べます。
storage disk set-led -disk disk_name 2
ディスクの前面の警告LEDが2分間点灯します。
3. ディスク シェルフ モデルのハードウェア ガイドの指示に従い、ディスク シェルフからディスクを
取り外します。
ホット スペア ディスクの取り外し
ホット スペア ディスクを取り外すときは、ディスクから所有権情報を削除する必要があります。これ
により、ディスクを別のノードに挿入したときに問題が発生しなくなり、ディスクを取り外すときに
Data ONTAPから不要なAutoSupportメッセージが送信されなくなります。
タスク概要
ホット スペア ディスクを取り外しても、そのディスクの内容にアクセスできなくなるわけではありま
せん。このディスクに格納されているデータを完全に取得できない状態にする必要がある場合は、
この手順ではなく、ディスクの完全消去を実行してください。
手順
1. 取り外すホット スペア ディスクのディスク名を確認します。
storage aggregate show-spare-disks
Data ONTAPによるディスクの管理 | 49
2. 取り外すディスクの物理的な場所を確認します。
storage disk set-led -disk disk_name
ディスク前面の警告LEDが点灯します。
3. ディスク所有権の自動割り当てを有効にしている場合は無効にします。
storage disk option modify -node node_name -autoassign off
4. ノードのHAパートナーに対してディスク所有権の自動割り当てを有効にしている場合は、パー
トナー ノードでもディスク所有権の自動割り当てを無効にします。
5. ディスクからソフトウェア所有権情報を削除します。
storage disk removeowner disk_name
6. ディスク シェルフ モデルのハードウェア ガイドの指示に従い、ディスク シェルフからディスクを
取り外します。
7. 前の手順でディスク所有権の自動割り当てを無効にした場合は再度有効にします。
storage disk option modify -node node_name -autoassign on
8. 前の手順でノードのHAパートナーに対してディスク所有権の自動割り当てを無効にした場合
は、パートナー ノードでもディスク所有権の自動割り当てを再度有効にします。
関連コンセプト
マルチディスク キャリアを安全に取り外せるかどうかを確認する方法(29ページ)
関連タスク
ディスク完全消去によるディスクからのデータの削除(51ページ)
データ ディスクの取り外し
ストレージ システムからデータ ディスクを取り外す必要があるのは、ディスクが正常に機能してい
ない場合だけです。データ ディスクを取り外して別のシステムで使用する場合は、まず、そのディ
スクをホット スペア ディスクに変換する必要があります。
タスク概要
ただちに障害ディスクとして処理することも、ディスク コピーが完了してから障害ディスクとして処理
することもできます。ただちに障害ディスクとして処理しない場合は、ディスク コピーが完了するま
で、ディスクを物理的に取り外すことはできません。ストレージ システムのディスク サイズや負荷に
応じて、この処理には数時間かかることがあります。
ディスクがストレージ システムのパフォーマンスや可用性に関する緊急の問題の原因となってい
ないかぎり、ディスクをただちに障害ディスクにはしないでください。ストレージ システムの構成によ
っては、ディスク障害が増えることでデータの損失が発生する場合があります。
50 | 物理ストレージ管理ガイド
手順
1. 取り外すディスクの名前を確認します。
そのディスクにエラーがレポートされている場合は、ディスク エラーを示すログ メッセージ内に
ディスク名が表示されます。ディスク名は、「Disk」というテキストのあとに表示されます。
2. 次のコマンドを入力して、取り外すディスクの物理的な場所を調べます。
storage disk set-led -disk disk_name 2
ディスク前面の赤色のLEDが2分間点灯します。
3. ただちに障害ディスクとして処理するかどうかに応じて、該当する処理を実行します。
状況または条件
操作
コピー処理が完了するまで
待つ(推奨)
次のコマンドを入力して、ディスクを障害前ディスクにします。
storage disk fail disk_name
Data ONTAPは指定されたディスクを障害前ディスクにし、この障害前
ディスクの内容をスペア ディスクにコピーして、交換ディスクを作成しよ
うとします。
コピー処理に成功した場合は、ディスクは障害ディスクになり、新しい交
換ディスクと置き換えられます。コピー処理が失敗した場合は、ディスク
は障害ディスクになり、RAIDシステムが交換ディスクを再構築するまで
ストレージ システムはデグレード モードで動作します。
ディスクをただちに取り外す
必要がある
次のコマンドを入力して、ディスクをただちに障害ディスクにします。
storage disk fail -disk disk_name -immediate
ディスクは障害ディスクになり、RAIDシステムが交換ディスクを再構築
するまでストレージ システムはデグレード モードで動作します。
4. 次のコマンドを入力して取り外すディスク名を探し、そのディスクが障害ディスクとして表示され
ていることを確認します。
storage disk show -broken
障害ディスクのリストにディスク名が表示されるまでディスクを取り外さないでください。
5. ディスク シェルフ モデルのハードウェア ガイドの指示に従い、ディスク シェルフから障害ディス
クを取り外します。
関連コンセプト
デグレード モードについて(124ページ)
マルチディスク キャリアを安全に取り外せるかどうかを確認する方法(29ページ)
Data ONTAPによるディスクの管理 | 51
ディスク完全消去によるディスクからのデータの削除
ディスク完全消去を実行すると、1本または一連のディスクからデータを削除し、データをリカバリ不
能にできます。
開始する前に
•
ディスクはスペア ディスクである必要があります。また、ノードに所有されており、アグリゲート
で使用されていないディスクを指定する必要があります (ディスクがパーティショニングされて
いる場合、パーティションをアグリゲートで使用することはできません)。
•
ストレージ プールの一部であるディスクを使用することはできません。
タスク概要
ディスク完全消去が有効な場合は、いくつかのData ONTAPコマンドが無効になります。ノードで有
効にしたディスク完全消去を無効にすることはできません。
ストレージ暗号化を使用してディスクのデータを削除する必要がある場合は、この手順を使用しな
いでください。ストレージ暗号化を使用してディスクのデータを削除する手順を使用します。
手順
1. 完全消去するディスクを所有するノードのノードシェルに切り替えます。
system node run -node node_name
2. ディスク完全消去を有効にします。
options licensed_feature.disk_sanitization.enable on
このコマンドは取り消すことができないため、確認を求められます。
3. 完全消去するディスクがパーティショニングされている場合は、各ディスクのパーティショニング
を解除します。
disk unpartition disk_name
4. 指定したディスクの完全消去を実行します。
disk sanitize start [-p pattern1|-r [-p pattern2|-r [-p pattern3|-r]]]
[-c cycle_count] disk_list
注意: 完全消去中はノードの電源を切ったり、ストレージの接続を切断したり、ターゲット ディ
スクを取り外したりしないでください。完全消去のフォーマット フェーズで処理が中断された
場合、ディスクを完全消去してスペア プールに戻せる状態にするには、フォーマット フェーズ
を再度開始して完了させる必要があります。
52 | 物理ストレージ管理ガイド
完全消去プロセスを中止する必要がある場合は、disk sanitize abortコマンドを使用し
ます。指定したディスクで完全消去のフォーマット フェーズが進行中の場合、そのフェーズが
完了するまで処理は中止されません。
-p pattern1 -p pattern2 -p pattern3には、1~3個の上書きパターンを16進数で指定しま
す。指定したパターンは、1サイクルとして、完全消去するディスクに順に適用されます。デフォ
ルトでは、第1のパターンに0x55、第2のパターンに0xaa、第3のパターンに0x3cが使用されま
す。
-rは、上書きパターンの一部またはすべてを、ランダムな上書きで置換します。
-c cycle_countは、指定した上書きパターンのサイクルを適用する回数です。デフォルト値は
1です。最大値は7です。
disk_listには、完全消去するスペア ディスクのIDを、スペースで区切って指定します。
5. ディスク完全消去プロセスのステータスを確認するには、次のコマンドを入力します。
disk sanitize status [disk_list]
6. 完全消去プロセスが完了したら、各ディスクについて次のコマンドを入力して、ディスクをスペア
状態に戻します。
disk sanitize release disk_name
7. clustered Data ONTAP CLIに戻ります。
exit
8. 次のコマンドを入力して、すべてのディスクがスペア状態に戻ったかどうかを確認します。
storage aggregate show-spare-disks
状況または条件
操作
完全消去したすべてのディス
クがスペアとして表示される
処理は完了しています。ディスクは完全消去され、スペア状態になって
います。
Data ONTAPによるディスクの管理 | 53
状況または条件
操作
完全消去した一部のディスク
がスペアとして表示されない
次の手順を実行します。
a.
advanced権限モードに切り替えます。
set -privilege advanced
b.
各ディスクについて次のコマンドを入力して、完全消去した未割り当
てのディスクを適切なノードに割り当てます。
storage disk assign -disk disk_name -owner
node_name
c.
各ディスクについて次のコマンドを入力して、ディスクをスペア状態
に戻します。
storage disk unfail -disk disk_name -s -q
d.
adminモードに戻ります。
set -privilege admin
タスクの結果
指定したディスクが完全消去され、ホット スペアとしてマーキングされます。完全消去したディスク
のシリアル番号が/etc/log/sanitized_disksに書き込まれます。
関連コンセプト
ディスク完全消去の機能(20ページ)
ディスク完全消去の停止
disk sanitize abortコマンドを使用すると、指定した1つ以上のディスク上で進行中の完全消
去プロセスを停止できます。
手順
1. 次のコマンドを入力します。
disk sanitize abort disk_list
このコマンドはノードシェルから実行できます。
指定したディスクで完全消去のディスク フォーマット フェーズが進行中の場合、ディスク フォー
マットが完了した時点で処理が停止されます。
「Sanitization abort initiated」というメッセージが表示されます。処理が停止されると、
各ディスクについて、完全消去を中止したことを知らせる別のメッセージが表示されます。
54 | 物理ストレージ管理ガイド
ディスクの管理用コマンド
storage diskコマンドとstorage aggregateコマンドを使用して、ディスクを管理します。
状況
使用するコマンド
スペア ディスクの一覧を表示する(所有者別
のパーティショニングされたディスクなど)
storage aggregate show-spare-disks
アグリゲート別のディスクのRAIDタイプ、現在
の使用状況、およびRAIDグループを表示する
storage aggregate show-status
物理ディスク(スペアを含む)のRAIDタイプ、
現在の使用状況、アグリゲート、およびRAID
グループを表示する
storage disk show -raid
障害が発生したディスクの一覧を表示する
storage disk show -broken
特定のディスクまたはシェルフのLEDを点灯す
る
storage disk set-led
特定のディスクに対するチェックサム方式を表
示する
storage disk show -fields checksumcompatibility
すべてのスペア ディスクに対するチェックサム
方式を表示する
storage disk show -fields checksumcompatibility -container-type spare
ディスクの接続および配置の情報を表示する
storage disk show -fields
disk,primary-port,secondaryname,secondary-port,shelf,bay
特定のディスクのクラスタ構成前のディスク名
を表示する
storage disk show -disk -fields
diskpathnames
Maintenance Centerに割り当てられたディスク
の一覧を表示する
storage disk show -maintenance
ディスクのパーティショニングを解除する
system node run -node local command disk unpartition
初期化されていないすべてのディスクを初期
化する
storage disk zerospares
関連情報
Clustered Data ONTAP 8.3 Commands: Manual Page Reference
Data ONTAPによるディスクの管理 | 55
ストレージ シェルフに関する情報を表示するコマンド
ディスク シェルフの構成やエラーの情報を表示するには、storage shelf showコマンドを使用し
ます。
表示する項目
使用するコマンド
シェルフの構成とハードウェアのステータスに
関する一般的な情報
storage shelf show
特定のシェルフの詳細情報(スタックIDなど)
storage shelf show -shelf
シェルフごとの対応可能な未解決のエラー
storage shelf show -errors
ベイ情報
storage shelf show -bay
接続情報
storage shelf show -connectivity
冷却に関する情報(温度センサー、冷却ファン
など)
storage shelf show -cooling
I/Oモジュールに関する情報
storage shelf show -module
ポート情報
storage shelf show -port
電源に関する情報(Power Supply Unit(PSU;
電源装置)、電流センサー、電圧センサーな
ど)
storage shelf show -power
関連情報
Clustered Data ONTAP 8.3 Commands: Manual Page Reference
スペース情報を表示するコマンド
storage aggregateコマンドとvolumeコマンドを使用して、アグリゲート、ボリューム、およびそれ
らのSnapshotコピーで使用されているスペースの情報を表示します。
表示する情報
使用するコマンド
使用済みスペースの割合および利用可能スペ
ースの割合に関する詳細も含む、アグリゲー
ト、Snapshotリザーブのサイズ、およびその他
のスペース使用量情報
storage aggregate show
storage aggregate show-space -snapsize-total,-used-includingsnapshot-reserve
アグリゲートでのディスクとRAIDグループの使 storage aggregate show-status
用状況およびRAIDのステータス
56 | 物理ストレージ管理ガイド
表示する情報
使用するコマンド
特定のSnapshotコピーを削除した場合に再利
用可能になるディスク スペースの量
volume snapshot compute-reclaimable
ボリュームによって使用されているスペースの
量
volume show -fields
size,used,available,percent-used
(advanced)
volume show-space
アグリゲート内でボリュームによって使用され
ているスペースの量
volume show-footprint
関連情報
Clustered Data ONTAP 8.3 Commands: Manual Page Reference
57
ディスクの所有権の管理
ディスク所有権は、ディスクを所有するノードと、ディスクが関連付けられるプールを決定します。
Data ONTAPでは、所有権情報はディスクに直接格納されます。
ディスク所有権の種類
ディスクを所有するシステムのHAまたはDisaster Recovery(DR;ディザスタ リカバリ)の状態は、デ
ィスクにアクセス可能なシステムに影響を及ぼす可能性があります。つまり、ディスクの所有権に
はいくつかの種類があります。
ディスク所有権情報は、Data ONTAPまたは管理者によって設定され、コントローラ モジュールの
一意のシステムID(ノードのNVRAMカードまたはNVMEMボードで確認)の形式でディスクに記録
されます。
Data ONTAPでは、ディスク所有権情報は次のいずれかまたは複数の形式で表示されます。使用
される名前は状況によって若干異なります。
•
所有者(または現在の所有者)
現在ディスクにアクセスできるシステムです。
•
元の所有者(またはホーム所有者)
システムがHAのテイクオーバーを実行中の場合は、所有者が、ノードをテイクオーバーしたシ
ステムに変更されます。元の所有者(ホーム所有者)には、テイクオーバーの前にディスクを所
有していたシステムが反映されます。
•
DRホーム所有者
システムがMetroClusterのスイッチオーバーを実行中の場合、DRホーム所有者には、スイッチ
オーバーの発生前のホーム所有者フィールドの値が反映されます。
ディスクとアレイLUNの所有権を割り当てる理由
ディスクやアレイLUNがストレージ システムの一部として有効に機能するためには、ストレージ シ
ステムによる所有権をディスクやアレイLUNに割り当てる必要があります。アレイLUNの所有権は
明示的に割り当てる必要があります。ディスクの所有権は自動でも手動でも割り当てることができ
ます。
次のような目的で、ディスクまたはアレイLUNの所有権を割り当てます。
•
ディスクまたはアレイLUNを特定のストレージ システムに関連付ける。
スタンドアロン システムの場合、ディスクとアレイLUNはすべてそのシステムで所有されます。
HA構成では、どちらのシステムでもディスクとアレイLUNを所有できます。
58 | 物理ストレージ管理ガイド
•
ディスクまたはアレイLUNを所有するシステムでそのディスクまたはアレイLUNを使用および
管理できるようにする。
未所有ディスクはスペアとして使用できず、所有されているディスクのようにファームウェアの更
新を自動的に受信することもできません。
•
ディスクまたはアレイLUNを特定のSyncMirrorプールに関連付ける(SyncMirrorを使用する場
合)。
SyncMirrorを使用しない場合、ディスクとアレイLUNはすべてpool0に割り当てられます。
ディスクとアレイLUNを使用できるようにする方法
Data ONTAPを実行しているシステムにディスクまたはアレイLUNを追加すると、ディスクまたはア
レイLUNは、いくつかの段階を経て、Data ONTAPでデータやパリティ情報の格納に使用できるよう
になります。
ディスクを使用できるようにするための手順は、アレイLUNを使用できるようにするための手順と
は少し異なります。次の図に、両方の手順を示します。
ディスク向けの手順では、次の作業を実行します。
1. 管理者がディスクをディスク シェルフに物理的に取り付けます。
ディスクはData ONTAPで認識されますが、所有権はまだ設定されていません。
ディスクの所有権の管理 | 59
2. ディスクの自動割り当てをサポートするようにシステムを設定している場合、Data ONTAPによ
ってディスクの所有権が割り当てられます。それ以外の場合は、管理者が手動でディスクの所
有権を割り当てる必要があります。
ディスクはスペア ディスクになります。
3. 管理者またはData ONTAPがディスクをアグリゲートに追加します。
ディスクはそのアグリゲートで使用されるようになります。ディスクにはデータやパリティ情報を
格納できます。
アレイLUN向けの手順では、次の作業を実行します。
1. ストレージ アレイ管理者がアレイLUNを作成して、Data ONTAPで使用できるようにします。
アレイLUNはData ONTAPで認識されますが、所有権はまだ設定されていません。
2. Data ONTAP管理者がそのアレイLUNの所有権をData ONTAPシステムに割り当てます。
アレイLUNはスペア アレイLUNになります。
3. Data ONTAP管理者が、アレイLUNをアグリゲートに追加します。
アレイLUNはアグリゲートによって使用されるようになり、データの格納に使用されます。
ディスクの所有権自動割り当ての仕組み
いくつかの基本的なルールに基づいた、あいまいな点のない構成では、ディスクの所有権および
プール メンバーシップを自動的に割り当てることができます。
ディスク所有権の自動割り当てでは、設定済みの自動割り当てポリシーを使用して、ディスクに適
した所有権を判断します。自動割り当てポリシーにはstack、shelf、bay、またはdefaultを指定
できます。ほとんどの場合、スタック(またはループ)内のすべてのディスクを同じノードおよびプー
ルに割り当てることができます。
ミッドエンド プラットフォームとハイエンド プラットフォームの場合、default自動割り当てポリシー
はstackポリシーと同じです。エントリレベル プラットフォーム(FAS2xxx)の場合、default自動割
り当てポリシーはbayポリシーと同じであり、同じシェルフを共有する2台のコントローラがサポート
されます。このポリシーでは、奇数番号のベイのディスクと偶数番号のベイのディスクがそれぞれ
まとめて割り当てられます。
パーティショニングされたディスクの場合、コンテナ ディスクと両方のパーティションで自動割り当て
が実行されます。
Data ONTAPによるディスク割り当ては、必要に応じていつでも変更できます。別の割り当てポリシ
ーを使用するように自動割り当てを変更することもできます。この変更を行っても、現在割り当てら
れているディスクには影響しません。
管理作業を行うために1本以上のディスクの所有権を一時的に削除する必要がある場合は、その
ディスクの所有権がData ONTAPによってすぐに再割り当てされないように、最初に所有権の自動
割り当てを無効にする必要があります。
所有権の自動割り当ては、アレイLUNや仮想ディスクに対しては使用できません。
60 | 物理ストレージ管理ガイド
使用するディスク自動割り当てポリシー
通常は、デフォルトの自動割り当てポリシー(大半のシステムではstackポリシー。エントリレベル
のシステム(FAS2xxx)ではbayポリシー)を使用できます。ただし、一部の構成では、自動割り当て
ポリシーを変更しなければならない場合があります。
構成に基づいて、適切な自動割り当てを使用します。
条件
使用する自動割り当てポリシーの値
エントリレベルのスタンドアロン システム
stack
1台の共有シェルフを含むHA構成におけるエ
ントリレベルのシステム
bay
複数のシェルフを搭載した1つのスタックを含
むHA構成におけるエントリレベルのシステム
shelf
1つのノードにつき複数のシェルフを搭載した1
つのスタックを含むMetroCluster構成
shelf
その他のすべての構成
stack
所有権の自動割り当てが起動されるタイミング
ディスク所有権の自動割り当ては、ストレージ システムにディスクを導入した直後に実行されるわ
けではありません。
所有権の自動割り当ては次のタイミングで実行されます。
•
通常のシステム動作中は5分間隔
•
初回のシステム初期化から10分後
この10分間は、所有権の自動割り当てを適切に実行できるよう、システム構成者がディスクの
初期割り当てを完了するために設定されています。
•
所有権の自動割り当てを有効にしたとき
Data ONTAP-vテクノロジに基づくプラットフォームでのディスクの所
有権の機能
仮想ディスクの所有権を管理するには、物理ディスクの場合と同じコマンドを使用します。ただし、
仮想ディスクの場合の所有権の自動割り当て方法は異なります。
Data ONTAP-vテクノロジに基づくストレージ システム(Data ONTAP Edgeシステムなど)では、シス
テムの初期セットアップで定義したすべての仮想データ ディスクの所有権が自動的に割り当てら
れます。システムの初期セットアップ後に追加した仮想ディスクに対しては自動割り当てを使用で
きません。
ディスクの所有権の管理 | 61
仮想ディスクの追加およびData ONTAP-vテクノロジに基づくストレージ システムの管理について
は、『Data ONTAP Edge インストレーション アドミニストレーション ガイド』を参照してください。
ディスクの所有権を割り当てる際のガイドライン
ディスクの所有権を割り当てるときは、障害の切り分けが最大限に行われ、所有権の自動割り当
てが適切に機能するように、一定のガイドラインに従う必要があります。ガイドラインは、使用する
自動割り当てポリシーによって異なります。
ディスクの所有権を割り当てる場合は、次のガイドラインに従ってください。
•
自動割り当てポリシー グループの構成ディスクが均一になるようにディスクを割り当てます。
たとえば、自動割り当てポリシーがstack(ほとんどのプラットフォームにおけるデフォルト値)
の場合は、同じスタックまたはループ上のすべてのディスクを同じノードおよびプールに割り当
てます。ただし、自動割り当てポリシーがbay(FAS2xxxモデルにおけるデフォルト値)の場合
は、ノードおよびプールごとに、偶数番のベイと奇数番のベイの構成ディスクが均一になるよう
にしてください。
•
自動割り当てポリシーがstackの場合は、同じアダプタに接続されているすべてのスタックを同
じプールに割り当てます。
•
同じマルチディスク キャリアのディスクは同じノードおよびプールに割り当てます。
ディスクの所有権の割り当て
ディスクをアグリゲートで使用するには、そのディスクがノードに所有されていなければなりませ
ん。ディスク所有権の自動割り当てを使用するようにクラスタが設定されていない場合は、所有権
を手動で割り当てる必要があります。
タスク概要
この手順は、パーティショニングされていないディスクのための手順です。
ワイルドカード文字を使用すると、一度に複数のディスクを割り当てることができます。
すでに別のノードで所有されているスペア ディスクを再割り当てする場合は、storage disk
assignコマンドで-forceオプションを使用する必要があります。
アグリゲートで使用中のディスクを再割り当てすることはできません。
手順
1. 所有権が未設定のすべてのディスクを表示します。
storage disk show -container-type unassigned
2. それぞれのディスクを割り当てます。
62 | 物理ストレージ管理ガイド
storage disk assign -disk disk_name -owner owner_name
関連コンセプト
ディスクの所有権自動割り当ての仕組み(59ページ)
関連タスク
ルートデータのパーティショニング用にパーティショニングされるディスクの所有権の割り当て
(62ページ)
ルートデータのパーティショニング用にパーティショニングされるディ
スクの所有権の割り当て
パーティショニングされたディスクの場合、3つの異なる所有権のエンティティ(コンテナ ディスク、デ
ータ パーティション、ルート パーティション)があります。コンテナ ディスクまたはパーティションの
所有権は、パーティショニングされていないディスクの場合と同様に、手動で設定することも自動割
り当てを使用して設定することもできます。
タスク概要
所有権の3つのエンティティ(コンテナ ディスクと2つのパーティション)はHAペアがまとめて所有す
るものとみなすことができます。コンテナ ディスクと2つのパーティションがHAペアの一方のノード
に所有されているかぎり、それらがすべてHAペアの同じノードに所有されている必要はありませ
ん。ただし、アグリゲートでパーティションを使用する場合は、そのパーティションがアグリゲートの
所有者であるノードに所有されている必要があります。
手順
1. パーティショニングされたディスクの現在の所有権を表示します。
storage disk show -disk disk_name -partition-ownership
2. 所有権を割り当てる所有権のエンティティに応じて適切なコマンドを入力します。
所有権を割り当てる所有権
のエンティティ
使用するコマンド
コンテナ ディスク
storage disk assign -disk disk_name -owner
owner_name
データ パーティション
storage disk assign -disk disk_name -owner
owner_name -data true
ルート パーティション
storage disk assign -disk disk_name -owner
owner_name -root true
ディスクの所有権の管理 | 63
いずれかの所有権のエンティティがすでに所有されている場合は、-forceオプションを追加す
る必要があります。
関連コンセプト
ディスクの所有権自動割り当ての仕組み(59ページ)
関連タスク
ディスクの所有権の割り当て(61ページ)
ディスクからの所有権の削除
Data ONTAPは、ディスク所有権情報をディスクに書き込みます。スペア ディスクまたはそのシェル
フをノードから取り外す前に、所有権情報を削除して、その情報が別のノードに適切に統合される
ようにする必要があります。
開始する前に
所有権を削除するディスクが次の要件を満たしている必要があります。
•
スペア ディスクである。
アグリゲートで使用されているディスクから所有権を削除することはできません。
•
Maintenance Centerに割り当てられていない。
•
完全消去の実行中ではない。
•
障害ディスクではない。
障害ディスクから所有権を削除する必要はありません。
タスク概要
ディスクの自動割り当てが有効になっている場合は、ノードからディスクを取り外す前に、Data
ONTAPによって所有権が自動的に再割り当てされます。そのため、ディスクが取り外されるまで所
有権の自動割り当てを無効にしておき、あとから再度有効にします。
手順
1. ディスク所有権の自動割り当てを有効にしている場合は無効にします。
storage disk option modify -node node_name -autoassign off
2. 必要に応じて、ノードのHAパートナーで前述の手順を繰り返します。
3. ディスクからソフトウェア所有権情報を削除します。
storage disk removeowner disk_name
複数のディスクから所有権情報を削除するには、カンマで区切ったリストを使用します。
64 | 物理ストレージ管理ガイド
例
storage disk removeowner sys1:0a.23,sys1:0a.24,sys1:0a.25
4. ディスクがルートデータのパーティショニング用にパーティショニングされている場合は、次の2
つのコマンドを入力して、パーティションから所有権を削除します。
storage disk removeowner disk_name -root true
storage disk removeowner disk_name -data true
これで、2つのパーティションはどのノードでも所有されなくなります。
5. 前の手順でディスク所有権の自動割り当てを無効にした場合は、ディスクが取り外されたあと、
または再割り当てされたあとに再度有効にします。
storage disk option modify -node node_name -autoassign on
6. 必要に応じて、ノードのHAパートナーで前述の手順を繰り返します。
ディスク所有権の自動割り当ての設定
ディスク所有権をディスクのスタック、シェルフ、またはベイに自動的に割り当てるようにData
ONTAPを設定できます。
開始する前に
•
ディスク所有権の自動割り当ての要件をシステムが満たしている必要があります。
•
異なる所有権が必要なスタックまたはシェルフが複数ある場合は、それぞれのスタックまたは
シェルフで所有権の自動割り当てが機能するように、各スタックまたはシェルフでいずれかのデ
ィスクを手動で割り当てておく必要があります。
タスク概要
default自動割り当てポリシーの動作はシステム モデルによって異なります。エントリレベル モデ
ルの場合、defaultポリシーはbayポリシーと同じです。その他のすべてのシステムの場合は、
stackポリシーと同じです。
手順
1. 実行する処理は、所有権の自動割り当てをスタック(またはループ)、シェルフ、ベイのどのレベ
ルで実行するかによって異なります。
状況
使用するコマンド
所有権の自動割り当てをス
タックまたはループ レベルで
実行するように設定する
storage disk option modify -autoassign-policy
stack
ディスクの所有権の管理 | 65
状況
使用するコマンド
所有権の自動割り当てをシ
ェルフ レベルで実行するよう
に設定する
storage disk option modify -autoassign-policy
shelf
所有権の自動割り当てをベ
イ レベルで実行するように
設定する
storage disk option modify -autoassign-policy bay
所有権の自動割り当てを無
効にする
storage disk option modify -autoassign off
2. ディスクの自動割り当ての設定を確認します。
storage disk option show
例
cluster1::> storage disk option show
Node
BKg. FW. Upd.
Assign Policy
------------- -----------------------------cluster1-1
on
cluster1-2
on
Auto Copy
Auto Assign
------------
-------------
on
on
on
on
Auto
default
default
関連コンセプト
ディスクの所有権自動割り当ての仕組み(59ページ)
使用するディスク自動割り当てポリシー(60ページ)
所有権の自動割り当てが起動されるタイミング(60ページ)
ディスク所有権コマンドでのワイルドカード文字の使用
ディスク所有権の管理用コマンドなど、一部のコマンドでは、ワイルドカード文字(*)を使用できま
す。ただし、適切なディスク セットを処理するには、ワイルドカード文字がData ONTAPでどのように
解釈されるかを理解しておく必要があります。
ワイルドカード文字は、次のディスク所有権コマンドで使用できます。
•
storage disk assign
•
storage disk show
•
storage disk removeowner
66 | 物理ストレージ管理ガイド
これらのコマンドでワイルドカード文字を使用すると、Data ONTAPではそれを0個以上の文字とし
て解釈し、コマンドの処理対象となるディスク名のリストが作成されます。特定のポートまたはスイ
ッチに接続されているすべてのディスクを指定したい場合などは、この方法が便利です。
注: ワイルドカード文字の利用には注意が必要です。ワイルドカード文字はディスク名文字列の
任意の文字に適用される、シンプルな文字列置換です。そのため、予想外の結果を生む可能性
もあります。
たとえば、スタック1のシェルフ1のディスクをすべて処理するには、次の構文を使用します。
1.1.*
ここで、次の例のように、2つ目の1のあとにピリオド(「.」)を入力し忘れると、スタック1、10、11な
どに含まれるすべてのディスクが処理対象になります。
1.1*
67
Data ONTAPによるアレイLUNの管理
Data ONTAPでストレージ アレイのストレージを使用できるようにするには、ストレージ アレイと
Data ONTAPでそれぞれいくつかの作業を行う必要があります。
たとえば、ストレージ アレイ管理者は、Data ONTAPで使用するアレイLUNを作成し、それらをData
ONTAPにマッピングする必要があります。これにより、Data ONTAPを実行しているノードにそのア
レイLUNを割り当てることができるようになります。
ノードにすでに割り当てられているアレイLUNに対してストレージ アレイ管理者が設定の変更(サ
イズの変更など)を行う場合、ストレージ アレイでLUNを再設定する前にData ONTAPでいくつか
の作業を行わなければならないことがあります。
関連コンセプト
ディスクとアレイLUNの所有権の機能(69ページ)
ストレージ アレイ上のアレイLUNを使用できるData ONTAPシステム
Vシリーズ(「V」)システム、およびData ONTAP 8.2.1以降でリリースされた新しいFASプラットフォ
ームでは、適切なライセンスがインストールされていれば、アレイLUNを使用できます。Data
ONTAPおよびFlexArray仮想化のドキュメントでは、これらのシステムに該当する情報とストレージ
アレイに該当する情報を明確に区別する必要がある場合に、これらのシステムを総称してData
ONTAPシステムと呼んでいます。
注: Data ONTAP 8.2.1以降、ストレージ アレイ上でLUNを使用する機能は、以前の呼称「Vシリ
ーズ」から、新しい呼称「Data ONTAP FlexArray仮想化ソフトウェア」に変更されました。アレイ
LUNを使用する機能は、Data ONTAPのライセンス機能として引き続き提供されます。
アレイLUNを使用可能なData ONTAP 8.2.1より前のシステム
Data ONTAP 8.2.1より前にリリースされたシステムのうちアレイLUNを使用できるのは、Vシリーズ
システム(「V」または「GF」で始まるシステム)だけです。Vシリーズ システムは、ストレージ アレイ
ベンダーのストレージ、ネイティブ ディスク、またはその両方を1つの異機種混在ストレージ プール
に仮想化するオープン ストレージ コントローラです。
注: Data ONTAP8.2.1より前にリリースされたほとんどのData ONTAPプラットフォームには、FAS
およびVシリーズ同等モデル(たとえばFAS6280とV6280)が搭載されていました (「V」同等モデ
ルがなかったシステムがいくつかあります)。どちらのタイプのモデルもネイティブ ディスクにアク
セスできますが、ストレージ アレイに接続できるのはVシリーズ システム(「V」または「GF」)だけ
でした。
68 | 物理ストレージ管理ガイド
アレイLUNを使用可能なData ONTAP 8.2.1以降のシステム
Data ONTAP 8.2.1以降では、プラットフォームのリリース方法と、使用できるストレージが変更にな
り、Vシリーズ システム以外のシステムもストレージ アレイに接続できるようになりました。
Data ONTAP 8.2.1以降、新しいプラットフォームはすべて単一のハードウェア モデルとしてリリース
されます。この単一ハードウェア モデルにはプレフィックスとしてFASが付き、今後新しいプラットフ
ォームで「V」とFASモデルがそれぞれリリースされることはありません。 V_StorageAttachライセン
ス パッケージがインストールされていれば、新しいFASモデルをストレージ アレイに接続できます
(Vシリーズ システムで必要なライセンスと同じです)。
重要: Data ONTAP 8.2.1より前にリリースされたFASシステムは、Data ONTAP 8.2.1以降にアッ
プグレードしても、ストレージ アレイのLUNを使用できません。「V」と同等のプラットフォームの
みが、アレイLUNを使用できます。
アレイLUNを使用するためのライセンスのインストール
アレイLUNで使用する各Data ONTAPノードにV_StorageAttachライセンスをインストールする必要
があります。クラスタ全体で1つのライセンスではありません。ライセンスをインストールするまで、
アグリゲートのアレイLUNは使用できません。
開始する前に
•
クラスタがインストールされている必要があります。
•
V_StorageAttachライセンスのライセンス キーを用意しておく必要があります。
ネットアップ サポート
タスク概要
V_StorageAttachパッケージのライセンス キーがすでにインストールされている場合は、この手順
を実行する必要はありません。Data ONTAPシステムをディスクと一緒に購入した場合、通常はラ
イセンス パッケージがインストールされた状態で出荷されます。あるいは、ユーザの多くが、導入
プロセスの早い段階で、必要なライセンスをすべてインストールします。
手順
1. アレイLUNで使用するクラスタ内のData ONTAPノードごとに、次のコマンドを入力します。
system license add license key
Data ONTAPによるアレイLUNの管理 | 69
例
vgv3170f41a> license
Serial Number: nnnnnnnn
Owner: mysystem1a
Package
Type
Description
Expiration
----------------- ------- --------------------- -------------------V_StorageAttach
license Virtual Attached Storage
2. 出力にV_StorageAttachパッケージが表示されることを確認します。
ディスクとアレイLUNの所有権の機能
ディスクとアレイLUNの所有権は、ディスクまたはアレイLUNを所有するノードと、ディスクまたはア
レイLUNが関連付けられるプールを決定します。所有権の機能を理解することによって、ストレー
ジの冗長性を最大限に活用し、ホット スペアを効率的に管理できます。
Data ONTAPでは、所有権情報はディスクまたはアレイLUNに直接格納されます。
ディスクとアレイLUNの所有権を割り当てる理由
ディスクやアレイLUNがストレージ システムの一部として有効に機能するためには、ストレージ シ
ステムによる所有権をディスクやアレイLUNに割り当てる必要があります。アレイLUNの所有権は
明示的に割り当てる必要があります。ディスクの所有権は自動でも手動でも割り当てることができ
ます。
次のような目的で、ディスクまたはアレイLUNの所有権を割り当てます。
•
ディスクまたはアレイLUNを特定のストレージ システムに関連付ける。
スタンドアロン システムの場合、ディスクとアレイLUNはすべてそのシステムで所有されます。
HA構成では、どちらのシステムでもディスクとアレイLUNを所有できます。
•
ディスクまたはアレイLUNを所有するシステムでそのディスクまたはアレイLUNを使用および
管理できるようにする。
未所有ディスクはスペアとして使用できず、所有されているディスクのようにファームウェアの更
新を自動的に受信することもできません。
•
ディスクまたはアレイLUNを特定のSyncMirrorプールに関連付ける(SyncMirrorを使用する場
合)。
SyncMirrorを使用しない場合、ディスクとアレイLUNはすべてpool0に割り当てられます。
70 | 物理ストレージ管理ガイド
ディスクとアレイLUNを使用できるようにする方法
Data ONTAPを実行しているシステムにディスクまたはアレイLUNを追加すると、ディスクまたはア
レイLUNは、いくつかの段階を経て、Data ONTAPでデータやパリティ情報の格納に使用できるよう
になります。
ディスクを使用できるようにするための手順は、アレイLUNを使用できるようにするための手順と
は少し異なります。次の図に、両方の手順を示します。
ディスク向けの手順では、次の作業を実行します。
1. 管理者がディスクをディスク シェルフに物理的に取り付けます。
ディスクはData ONTAPで認識されますが、所有権はまだ設定されていません。
2. ディスクの自動割り当てをサポートするようにシステムを設定している場合、Data ONTAPによ
ってディスクの所有権が割り当てられます。それ以外の場合は、管理者が手動でディスクの所
有権を割り当てる必要があります。
ディスクはスペア ディスクになります。
3. 管理者またはData ONTAPがディスクをアグリゲートに追加します。
ディスクはそのアグリゲートで使用されるようになります。ディスクにはデータやパリティ情報を
格納できます。
Data ONTAPによるアレイLUNの管理 | 71
アレイLUN向けの手順では、次の作業を実行します。
1. ストレージ アレイ管理者がアレイLUNを作成して、Data ONTAPで使用できるようにします。
アレイLUNはData ONTAPで認識されますが、所有権はまだ設定されていません。
2. Data ONTAP管理者がそのアレイLUNの所有権をData ONTAPシステムに割り当てます。
アレイLUNはスペア アレイLUNになります。
3. Data ONTAP管理者が、アレイLUNをアグリゲートに追加します。
アレイLUNはアグリゲートによって使用されるようになり、データの格納に使用されます。
Data ONTAPと所有するアレイLUNの関係
ストレージ アレイから提供されるアレイLUNをData ONTAPで使用するためには、そのData
ONTAPを実行しているシステムをアレイLUNの所有者とする論理的な関係を設定する必要があり
ます。
ストレージ アレイ管理者は、アレイLUNを作成し、Data ONTAPを実行しているストレージ システム
の指定したFCイニシエータ ポートに対してそのLUNを使用可能にします (手順はストレージ アレ
イのベンダーによって異なります)。Data ONTAPを実行しているシステムにアレイLUNを割り当て
ると、Data ONTAPはそのアレイLUNにデータを書き込み、そのシステムをアレイLUNの所有者と
して識別します。以降、所有者のみがアレイLUNのデータを読み書きできるようになります。
Data ONTAPはアレイLUNを仮想ディスクとみなすため、Data ONTAP側からは、この論理的な関
係はディスク所有権と呼ばれます。Data ONTAPから見ると、ストレージ システムにアレイLUNを割
り当てるということは、ストレージ システムにディスクを割り当てるということです。
ディスク所有権方式の利点は、通常のホストではハードウェアやLUNのアクセス制御を再設定す
ることで実現しなければならないような変更を、Data ONTAPソフトウェアを通じて実現できることで
す。たとえば、Data ONTAPを実行している複数のシステム間で、あるシステムから別のシステムに
データ サービスを移行することで、要求のロード バランシングを実施できます。ほとんどのユーザ
はこの処理を意識しません。Data ONTAPを実行しているシステム間で、所有者としてデータ要求
に応じるシステムを変更する場合、ストレージ アレイでハードウェアやLUNのアクセス制御を再設
定する必要はありません。
注意: Data ONTAPソフトウェアベースの所有権制御機能の対象となるのは、Data ONTAPを実
行しているストレージ システムのみです。Data ONTAP以外のホストは、Data ONTAPを実行して
いるシステムが所有するアレイLUNのデータを上書きすることができます。したがって、複数の
ホストが同じストレージ アレイ ポート経由でアレイLUNにアクセスする環境では、ストレージ ア
レイにLUNセキュリティを使用して、システム同志がお互いのアレイLUNを上書きできないよう
にする必要があります。
アレイLUNのサイズ変更など、アレイLUNの再構成はストレージ アレイから行う必要があります。
その場合、Data ONTAPによるアレイLUNの所有を解除しておく必要があります。
インストレーション後にアレイLUNの所有権を割り当てるケース
Data ONTAPシステムの購入時にディスク シェルフも同時に注文した場合は、最初のインストレー
ション時にアレイLUNを使用するようにセットアップする必要はありません。アレイLUNのみを使用
72 | 物理ストレージ管理ガイド
するData ONTAPシステムの場合は、最初のインストレーション時に割り当てるアレイLUNは2つだ
けです。
ディスク シェルフを同時に購入したData ONTAPシステムの場合、出荷時にルート ボリュームがデ
ィスクにインストールされているため、当初はアレイLUNを割り当てる必要はありません。アレイ
LUNのみを使用する場合は、最初のインストレーション時にルート ボリューム用のアレイLUNとコ
ア ダンプのスペア用のアレイLUNを1つずつ設定する必要があります。どちらの場合も、最初のイ
ンストレーション後、いつでも追加のアレイLUNの所有権をシステムに割り当てることができます。
システムの構成後にアレイLUNの所有権を割り当てるケースとしては、次のような場合が考えられ
ます。
•
Data ONTAPシステムをネイティブ ディスク シェルフと一緒に購入し、当初はアレイLUNを使用
するようにセットアップしなかった場合
•
ストレージ アレイからData ONTAPに提供されるLUNのいくつかに所有権を設定していなかっ
たが、その後使用する必要が生じた場合
•
別のシステムが所有権を解除したアレイLUNをこのシステムで使用する場合
•
システムの初期構成時にはData ONTAPで使用可能になっていなかったLUNを、その後使用
する必要が生じた場合
Data ONTAPがアレイLUNを使用できるケース
ストレージ システムに割り当てたアレイLUNは、アグリゲートに追加してストレージに使用すること
も、ストレージに必要となるまでスペアLUNのままにしておくこともできます。
いずれのストレージ システムでもまだLUNを所有していない場合
この例では、ストレージ アレイ管理者が、アレイLUNをData ONTAPで使用できるようにしま
した。ただし、システムvs1はまだLUNを「所有」するようには構成されていません。そのた
め、vs1では、ストレージ アレイ上のいずれのアレイLUNに対しても、データの読み取りや書
き込みを行うことができません。
Data ONTAPによるアレイLUNの管理 | 73
一部のアレイLUNだけが所有されている場合
この例では、vs1はアレイLUN 1およびアレイLUN 2を所有するように構成されていますが、
アレイLUN 3およびアレイLUN 4を所有するようには構成されていません。ただし、LUN 3お
よびLUN 4をData ONTAPで使用することは可能で、LUN 3およびLUN 4はあとでストレージ
システムに割り当てることができます。
Data ONTAPでは、LUN 1をルート ボリュームに使用しました。LUN 1はアグリゲート内にあ
るので、システムvs1では、LUN 1からデータを読み取ったりLUN 1にデータを書き込んだり
できます。LUN 2は、まだアグリゲートに追加されていないのでスペアLUNのままです。
LUN 2がスペアの間は、システムvs1では、LUN 2からデータを読み取ることも、LUN 2にデ
ータを書き込むこともできません。
ストレージ システムの初期セットアップを実行したあとで、ストレージのニーズに応じて、
LUN 3とLUN 4のどちらかまたはどちらも所有するか、あるいはどちらも所有しないように
vs1を構成できます。
HAペアのLUNの所有権
この例では、Data ONTAPを実行する2つのストレージ システムがHAペアとして構成されて
います。HAペアでは、特定のLUNの所有者になれるのは一方のノードだけですが、所有権
を持つノードを使用できなくなったときにもう一方のノードが所有権を引き継ぐことができるよ
うに、両方のノードが同じLUNを認識できる必要があります。
ストレージ アレイ上にLUN 1~LUN 4が作成され、これらのLUNは、ストレージ システムの
接続先の、ストレージ アレイのポートにマッピングされました。4つのLUNはすべてHAペア
の各ノードで認識できます。
74 | 物理ストレージ管理ガイド
初期セットアップで、vs1にLUN 1およびLUN 2の所有権を割り当てたとします。LUN 1はル
ート ボリュームに自動的に追加されたので、LUN 1はvs1で「使用中」になります。LUN 2は、
vs1上のアグリゲートに明示的に追加されるまでスペアのままです。同様に、初期セットアッ
プでvs2にLUN 3およびLUN 4の所有権を割り当て、LUN 3をルート ボリュームに割り当てた
とします。LUN 4は、アグリゲートに明示的に追加されるまでスペアLUNのままです。
この例の重要な点は、次のとおりです。
•
ストレージ システムをHAペアで配置したので、一方のシステムを使用できなくなったとき
にもう一方のシステムがそのシステムのサービスを引き継ぐことができます。
•
特定のアレイLUNを所有できるのは、一方のストレージ システムだけです。
ただし、HAペアの一方のノードに割り当てられたすべてのアレイLUNを、HAペアのもう
一方のノード(割り当て先でも所有元でもないノード)からも認識できる必要があります。
•
2つのスイッチを配置すると、一方のスイッチに障害が発生したときに、もう一方のスイッ
チによりストレージ アレイへの代替パスが提供されます。
•
HAペアを構成する各ストレージ システムがもう一方のストレージ システムの所有するア
レイLUNを認識できるように、両方のスイッチに対して適切にゾーニングを行う必要があ
ります。
Data ONTAPによるアレイLUNの管理 | 75
アレイLUNの所有権の割り当て
アレイLUNをアグリゲートに追加してストレージとして使用するには、ノードに所有されていなけれ
ばなりません。
開始する前に
•
バックエンド構成のテスト(Data ONTAPシステムの背後にあるデバイスの接続と構成のテスト)
が完了している必要があります。
•
割り当てるアレイLUNがData ONTAPシステムに提供されている必要があります。
タスク概要
所有権を割り当てることができるアレイLUNの条件は次のとおりです。
•
所有権が設定されていない。
•
ストレージ アレイの構成に関して次のような問題がない。
◦ アレイLUNのサイズがData ONTAPでサポートされる範囲外である。
◦ LDEVが1つのポートにしかマッピングされていない。
◦ LDEVに割り当てられている各LUN IDに一貫性がない。
◦ LUNのパスが1つしかない。
所有権の割り当てを行うアレイLUNのバックエンド構成にData ONTAPシステムとストレージ アレイ
の連携に支障をきたす問題があると、エラー メッセージが表示されます。アレイLUNの割り当てを
続行するには、問題を修正する必要があります。
アレイLUNへのパスがすべて同じコントローラに接続されていたり、パスが1つしかないなど、割り
当てようとしているアレイLUNに冗長性の問題がある場合は、警告が表示されます。冗長性の問
題は、LUNの所有権を割り当てる前に修正しても、割り当てたあとに修正してもかまいません。
手順
1. 次のコマンドを入力して、ノードにまだ割り当てられていないアレイLUNのリストを表示します。
storage disk show -container-type unassigned
2. 次のコマンドを入力して、このノードにアレイLUNを割り当てます。
storage disk assign -disk arrayLUNname -owner nodename
冗長性の問題をディスクの割り当て前でなく割り当て後に修正する場合は、storage disk
assignコマンドで-forceパラメータを使用する必要があります。
76 | 物理ストレージ管理ガイド
関連コンセプト
ディスクとアレイLUNの所有権の機能(69ページ)
関連タスク
スペア アレイLUNの割り当ての変更(76ページ)
バックエンド構成の検証
本番環境でアレイLUNを使用したData ONTAP構成をオンラインにする前に、構成の問題を検出し
て解決しておくことが重要です。インストールの検証を開始するにはstorage array config
showコマンドを使用します。
storage array config showコマンドを実行すると、ストレージ アレイがクラスタにどのように接
続されているかが示されます。バックエンド構成の問題が検出されると、storage array config
showの出力の最下部に次のメッセージが表示されます。
Warning: Configuration errors were detected.
for detailed information.
Use 'storage errors show'
検出された問題のLUNレベルの詳細はstorage errors showの出力で確認できます。
storage errors showコマンドで示されたすべての問題を修正する必要があります。
関連情報
FlexArray仮想化実装ガイド(サードパーティ製ストレージ)
スペア アレイLUNの割り当ての変更
スペア アレイLUNの所有権を別のノードに切り替えることができます。 その目的は、ノード間での
負荷分散などです。
手順
1. 再割り当てを行うアレイLUNを所有しているノードのコンソールで、次のコマンドを入力して、ノ
ードのスペア アレイLUNのリストを表示します。
storage disk show -owner local
ノードで所有されているアレイLUNとして、スペアとアグリゲート内のLUNの両方が表示されま
す。
2. 別のノードに再割り当てするLUNがスペアLUNであることを確認します。
3. 次のコマンドを入力して、アレイLUNの所有権を別のノードに割り当てます。
Data ONTAPによるアレイLUNの管理 | 77
storage disk assign arrayLUNname -owner new_owner_name -force
注: -forceオプションを使用しなかった場合や、アレイLUNがすでにアグリゲートに追加され
ている場合は、アレイLUNの所有権は変更されません。
4. 次のコマンドを入力して、スペア アレイLUNの所有権が他のノードに切り替わったことを確認し
ます。
storage disk show -owner local
所有権を新しい所有者に変更したスペア アレイLUNがスペアのリストに表示されなくなります。
アレイLUNがまだ表示されている場合は、コマンドをもう一度実行して所有権を切り替えてくだ
さい。
5. デスティネーション ノードで、次のコマンドを実行して、所有権を変更したスペア アレイLUNが
デスティネーション ノードで所有されるスペアとして表示されることを確認します。
storage disk show -owner local
終了後の操作
アレイLUNをストレージで使用するには、アグリゲートに追加する必要があります。
関連コンセプト
ディスクとアレイLUNの所有権の機能(69ページ)
関連タスク
アレイLUNの所有権の割り当て(75ページ)
アレイLUN名の形式
Data ONTAP 8.3ではアレイLUNに割り当てられる名前に新しい形式を採用し、名前がクラスタ内
で一意になるようにしています。
アレイLUN名は2つの要素で構成され、次の例のようになります。
<array_prefix>.<offset>(例:EMC-1.1)
•
array_prefixは、Data ONTAPがデフォルトで各ストレージ アレイに割り当てる一意のプレフ
ィックスです。
このフィールドは、<array_name-array_instance>で構成されます(この例ではEMC-1)。
array_nameはベンダー名の最初の3文字です。
同じベンダーのアレイが複数ある場合、array_instanceの値が1つずつ増分します。
•
offsetは、Data ONTAPが各LUNに割り当てる昇順の仮想ディスク番号です。 ホストのLUN ID
とは無関係です。
78 | 物理ストレージ管理ガイド
<array_prefix>フィールドは、storage array modify -name -prefixコマンドを使用して変
更できます。
クラスタ構成前のアレイLUN名の形式
ノードがクラスタに追加される前、またはシステムがメンテナンス モードのときのアレイLUN名は、
Data ONTAP 8.3より前に使用されていた形式、つまりクラスタ構成前の形式に従っています。
アレイLUNにはパスに基づく名前が付けられ、Data ONTAPシステムとストレージ アレイの間にあ
るデバイス、使用されているポート、およびSCSI LUN IDで構成されます。SCSI LUN IDは、ホスト
へのマッピング用にストレージ アレイが外部に提供する、パス上のSCSI LUNのIDです。
アレイLUNをサポートするData ONTAPシステムでは、各LUNへのパスが複数存在することから、
それぞれのアレイLUNに複数の名前が付けられる可能性があります。
Data ONTAPシステムのアレイLUN名の形式
構成
アレイLUN名の形式
各要素の説明
直接接続
nodename.adapter.idlun-id
node-nameは、クラスタ ノー
ドの名前です。clustered Data
ONTAPでは、パスに基づく名
前がクラスタ内で一意になる
ように、LUN名の先頭にノー
ド名が付けられます。
adapterは、Data ONTAPシ
ステムのアダプタ番号です。
idは、ストレージ アレイのチ
ャネル アダプタ ポートです。
lun-idは、ストレージ アレイ
がホストに提供するアレイ
LUN番号です。
例:node1.0a.0L1
Data ONTAPによるアレイLUNの管理 | 79
構成
アレイLUN名の形式
各要素の説明
ファブリック接続
node-name:switchname:port.idlun-id
node-nameは、ノードの名前
です。clustered Data ONTAP
では、パスに基づく名前がク
ラスタ内で一意になるように、
LUN名の先頭にノード名が
付けられます。
switch-nameは、スイッチの
名前です。
portは、ターゲット ポート(エ
ンド ポイント)に接続されてい
るスイッチ ポートです。
idは、デバイスIDです。
lun-idは、ストレージ アレイ
がホストに提供するアレイ
LUN番号です。
例:
node1:brocade3:6.126L1
スペア アレイLUNのチェックサム方式の確認
名前を指定してスペア アレイLUNをアグリゲートに追加する場合は、追加するアレイLUNのチェッ
クサム方式がアグリゲートと同じであることを確認する必要があります。
タスク概要
アレイLUNのアグリゲートにチェックサム方式が異なるアレイLUNを混在させることはできません。
チェックサム方式は、アグリゲートとそれに追加するアレイLUNで同じでなければなりません。
アグリゲートに追加するスペア アレイLUNの数を指定した場合、アグリゲートと同じチェックサム方
式のアレイLUNがデフォルトで選択されます。
注: ゾーン チェックサム方式のアレイLUNを使用して新規に作成したアグリゲートのチェックサム
方式は、すべてAdvanced Zoned Checksum(AZCS;アドバンスド ゾーン チェックサム)になりま
す。 ゾーン チェックサム方式は、既存のゾーン方式のアグリゲートに対して引き続きサポートさ
れます。 ゾーン チェックサム方式の既存のアグリゲートに追加したゾーン チェックサム方式の
スペア アレイLUNは、ゾーン チェックサム方式のままです。 AZCSチェックサム方式のアグリゲ
ートにゾーン チェックサム方式のスペア アレイLUNを追加すると、チェックサムの管理には
AZCSチェックサム方式が使用されます。
手順
1. 次のコマンドを入力して、スペア アレイLUNのチェックサム方式を確認します。
80 | 物理ストレージ管理ガイド
storage disk show -fields checksum-compatibility -container-type spare
ブロック チェックサム方式のアレイLUNはブロック チェックサム方式のアグリゲートに、ゾーン
方式のアレイLUNはAZCS方式のアグリゲートに追加できます。
関連タスク
アレイLUNのチェックサム方式の変更(80ページ)
アレイLUNのチェックサム方式の変更
チェックサム方式が異なるアグリゲートにアレイLUNを追加する場合は、アレイLUNのチェックサ
ム方式を変更する必要があります。
開始する前に
特定のワークロードでのパフォーマンスと、各チェックサム方式のストレージ容量利用率との間のト
レードオフを確認しておく必要があります。アレイLUNに対するチェックサムの使用については、
『FlexArray仮想化インストール要件およびリファレンス ガイド』で説明しています。
チェックサムの使用についてさらに詳しい情報が必要な場合は、セールス エンジニアまでお問い
合わせください。
タスク概要
•
AZCS方式のアグリゲートに追加するアレイLUNに対しては、ゾーン チェックサム方式を割り当
てる必要があります。ゾーン チェックサム方式のアレイLUNをAZCS方式のアグリゲートに追加
すると、アレイLUNのチェックサム方式はAZCSになります。同様に、ゾーン チェックサム方式
のアレイLUNをゾーン方式のアグリゲートに追加すると、アレイLUNのチェックサム方式はゾー
ン方式になります。
•
所有権を割り当てる際にアレイLUNのチェックサムを変更することはできません。チェックサム
は、割り当て済みのアレイLUNでのみ変更できます。
手順
1. 次のコマンドを入力して、チェックサム方式を変更します。
storage disk assign -disk disk name -owner owner -c new_checksum_type
disk nameは、チェックサム方式を変更するアレイLUNです。
ownerは、アレイLUNの割り当て先のノードです。
new_checksum_typeには、blockまたはzonedを指定できます。
例
storage disk assign -disk EMC-1.1 -owner system147b -c block
Data ONTAPによるアレイLUNの管理 | 81
アレイLUNのチェックサム方式が、指定した新しいチェックサム方式に変更されます。
関連タスク
スペア アレイLUNのチェックサム方式の確認(79ページ)
ストレージ アレイ上でアレイLUNを再構成するための前提条件
アレイLUNがすでに(Data ONTAPで)特定のData ONTAPシステムに割り当てられている場合、ス
トレージ管理者がストレージ アレイでアレイLUNの再構成を行う前に、Data ONTAPによってアレイ
LUNに書き込まれた情報を削除しておく必要があります。
ストレージ アレイがData ONTAPにアレイLUNを提供すると、Data ONTAPでは、そのアレイLUNに
関する情報(サイズなど)を収集し、その情報をアレイLUNに書き込みます。Data ONTAPでは、ア
レイLUNに書き込んだ情報を動的に更新できません。したがって、ストレージ アレイ管理者がアレ
イLUNを再構成する前に、Data ONTAPを使用してアレイLUNの状態を未使用に変更する必要が
あります。 Data ONTAPからすると、このアレイLUNは未使用です。
アレイLUNの状態を未使用に変更すると、Data ONTAPによって次の処理が実行されます。
•
アレイLUNへの入出力処理を強制終了する。
•
RAID構成情報のラベルおよび永続的予約をアレイLUNから削除する。これにより、アレイ
LUNはいずれのData ONTAPシステムにも所有されていない状態になります。
この処理が完了すると、Data ONTAPの情報がアレイLUNに残っていない状態になります。
アレイLUNの状態が未使用に変更されたら、次の処理を実行できます。
•
アレイLUNからData ONTAPへのマッピングを削除し、他のホストでこのアレイLUNを使用でき
るようにする。
•
アレイLUNのサイズまたは構成を変更する。
アレイLUNのサイズや構成を変更したあとにData ONTAPで再び使用できるようにするには、アレ
イLUNをData ONTAPに再度提供し、Data ONTAPシステムに再度割り当てる必要があります。
Data ONTAPでアレイLUNの新しいサイズまたは構成が認識されます。
関連タスク
アレイLUNのサイズまたは構成の変更(82ページ)
82 | 物理ストレージ管理ガイド
アレイLUNのサイズまたは構成の変更
アレイLUNのサイズや構成の再設定はストレージ アレイで行う必要があります。アレイLUNがす
でにData ONTAPシステムに割り当てられている場合は、ストレージ アレイ管理者が再設定を行う
前に、Data ONTAPを使用してアレイLUNを未使用の状態に変更しておく必要があります。
開始する前に
未使用の状態に変更するには、アレイLUNをスペアにしておく必要があります。
手順
1. Data ONTAPシステムで、次のコマンドを入力して所有権情報を削除します。
storage disk removeowner -disk arrayLUNname
2. ストレージ アレイで、次の手順を実行します。
a. アレイLUNのマッピングを解除し、Data ONTAPシステムから認識されないようにします。
b. アレイLUNのサイズまたは構成を変更します。
c. アレイLUNをData ONTAPで再び使用できるようにするには、アレイLUNをData ONTAPシ
ステムに再度マッピングします。
この時点で、アレイLUNのマッピング先のFCイニシエータ ポートからは認識されますが、ど
のData ONTAPシステムでもまだ使用できません。
3. アレイLUNの所有者に設定するData ONTAPシステムで、次のコマンドを実行します。
storage disk assign -disk arrayLUNname -owner nodename
所有権情報を削除したアレイLUNは、割り当てを再設定するまで、どのData ONTAPシステム
でも使用できません。 アレイLUNはスペアのままにしておくことも、アグリゲートに追加すること
もできます。アレイLUNをストレージに使用するには、アグリゲートに追加する必要がありま
す。
関連コンセプト
ストレージ アレイ上でアレイLUNを再構成するための前提条件(81ページ)
Data ONTAPによるアレイLUNの管理 | 83
アレイLUNのData ONTAPによる使用の中止
ストレージ アレイ管理者が特定のアレイLUNについてData ONTAPでの使用を中止し、そのLUN
を別のホストで使用するように再設定する場合は、Data ONTAPによってLUNに書き込まれた情報
(サイズや所有権など)を事前に削除しておく必要があります。
開始する前に
Data ONTAPでの使用を中止するLUNがアグリゲートに含まれている場合は、この手順を開始す
る前に、アグリゲートをオフラインにして削除しておく必要があります。アグリゲートをオフラインにし
て削除すると、データLUNはスペアLUNに変わります。
手順
1. 次のコマンドを入力します。
storage disk removeowner -disk LUN_name
LUN_nameは、アレイLUNの名前です。
Data ONTAPシステムをサービスから削除する前のアレイLUNの準
備
Data ONTAPシステムをサービスから削除するときは、そのシステムに割り当てられているすべて
のアレイLUNの永続的予約を解除しておく必要があります。
タスク概要
アレイLUNにData ONTAPの所有権を割り当てると、そのアレイLUNには永続的予約(所有権ロッ
ク)が設定され、アレイLUNを所有するData ONTAPシステムが識別されます。他の種類のホスト
でアレイLUNを使用できるようにする場合は、Data ONTAPによってアレイLUNに設定された永続
的予約を削除する必要があります。一部のアレイでは、Data ONTAPによってそのLUNに書き込ま
れた所有権と永続的予約を削除しないかぎり、リザーブされたLUNを削除できません。
たとえば、Hitachi Universal Storage Platform(USP)ストレージ アレイには、LUNから永続的予約を
削除するユーザ コマンドが用意されていません。Data ONTAPシステムをサービスから削除する前
にData ONTAPで永続的予約を削除しない場合、予約を削除するために日立のテクニカル サポー
トにお問い合わせいただく必要があります。
Data ONTAPシステムをサービスから削除する前に永続的予約をLUNから削除する方法について
は、テクニカル サポートにお問い合わせください。
84 | 物理ストレージ管理ガイド
ストレージ暗号化による保管データの保護
ストレージ暗号化を使用して、保管データへの不正アクセスを防止できます。この機能を使用する
には、ストレージ暗号化とその機能、セットアップと管理の方法、およびストレージ暗号化を使用し
てディスク内のデータを削除する方法について理解しておく必要があります。
ストレージ暗号化の概要
ストレージ暗号化の概念、機能、利点、および制限事項の概要について説明します。
ストレージ暗号化とは
ストレージ暗号化は、データ保護を強化するためのオプション機能です。この機能は、暗号化機能
を備えたディスクを格納する、サポート対象の特定のストレージ コントローラとディスク シェルフで
使用できます。
標準的なストレージ環境では、データはクリアテキスト形式でディスクに書き込まれます。これによ
り、ストレージ システムから取り外したディスクを紛失したり、ディスクが盗難にあったりした場合
に、許可されていないユーザがデータにアクセスする可能性があります。
ストレージ暗号化を有効にすると、ストレージ システムの保管データは自己暗号化ディスクに格納
されて保護されます。
自己暗号化ディスクで使用する認証キーは、外部キー管理サーバにセキュアに格納されます。
外部キー管理サーバの目的
外部キー管理サーバは、ストレージ環境におけるサードパーティのシステムであり、ストレージ シ
ステム内の自己暗号化ディスクで使用する認証キーをセキュアに管理します。認証キーまたは暗
号化キーを使用する他のシステム(ストレージ システムなど)に外部キー管理サーバをリンクしま
す。
ストレージ システムでは、外部キー管理サーバへのセキュアなSSL接続を使用して認証キーを格
納および取得します。ストレージ システムとキー管理サーバ間の通信にはKey Management
Interoperability Protocol(KMIP)を使用します。
外部キー管理サーバは、管理対象の認証キーまたは暗号化キーをセキュアに格納し、要求に応
じて、許可済みのリンクされているシステムにそれらのキーを提供します。これにより、認証キーが
ストレージ システムとは別に格納されるので、セキュリティが強化されます。さらに、認証キーは常
にセキュアに処理および格納されます。キーがクリアテキストで表示されることはありません。
ストレージ暗号化のセットアップおよび設定のプロセスの際は、少なくとも1台のキー管理サーバを
ストレージ システムにリンクする必要があります。冗長性を確保するには、複数のキー管理サー
バをリンクしてください。環境内に1台しかないキー管理サーバが使用できなくなると、そのキー管
理サーバが復旧するまで保護データにアクセスできない可能性があります。たとえば、ストレージ
ストレージ暗号化による保管データの保護 | 85
システムで自己暗号化ディスクのロックを解除する必要があるときに、キー管理サーバが使用でき
ない状態であるため、そのサーバから認証キーを取得できない場合などです。
冗長性を確保するために、セットアップ時またはセットアップ後に最大4台のキー管理サーバを指
定できます。
サポートされているキー管理サーバの一覧については、Interoperability Matrixを参照してくださ
い。
ストレージ暗号化の仕組み
ストレージ暗号化は、セキュリティを強化するために、特殊なファームウェアとハードウェアで構成
されたディスク(SEDとも呼ばれます)のファームウェア レベルで実行されます。SEDは、通常のデ
ィスクと同様に非保護モードで使用できます。また、電源投入プロセス後に認証が必要な保護モー
ドで使用することもできます。
SEDは格納するデータを常に暗号化します。非保護モードでは、データの復号化やデータへのアク
セスに必要な暗号化キーを自由に入手できます。保護モードでは、暗号化キーが保護されるの
で、認証を使用する必要があります。
SEDを使用してストレージ システムでストレージ暗号化を最初に有効にして設定する場合は、スト
レージ システムがSEDに対して自身を認証するために使用する認証キーを作成します。IPアドレ
スが指定されたストレージ システムを、認証キーをセキュアに格納する1台以上の外部キー管理
サーバに対して設定します。
ストレージ システムは、ブート時にキー管理サーバと通信して認証キーを取得します。Data
ONTAPは、SEDの電源を再投入したあとで、認証キーを使用してSEDに対して自身を認証する必
要があります。
認証が成功すると、SEDのロックが解除されます。SEDでは、認証キーを使用して、ディスクに格納
されているデータ暗号化キーを復号化します。読み取り要求があると、SEDは、格納されているデ
ータをストレージ システムに渡す前に、そのデータを自動的に復号化します。ストレージ システム
からの書き込み要求があると、SEDは、ディスクのストレージ プラッタにデータを書き込む前に自
動的にデータを暗号化します。SEDがロックされている場合は、Data ONTAPがそのディスクに対し
て自身を認証しなければ、SEDはデータの読み取りや書き込みを許可しません。SEDがロックされ
ている場合は、ディスクの電源が投入されるたびに認証が必要です。
暗号化と復号化の際に、ユーザが認識できるほどのディスク パフォーマンスの低下が発生したり、
ブート時間が長くなったりすることはありません。ストレージ暗号化は別途ライセンス キーを入手し
なくても使用できます。追加しなければならない唯一の必須コンポーネントは、外部キー管理サー
バです。
ストレージ システム(SEDが搭載されたディスク シェルフを含む)が停止した場合や電源を切った
場合は、ディスクが再びロックされ、データにアクセスできなくなります。
86 | 物理ストレージ管理ガイド
SEDを使用したディスク処理
ディスク関連の処理のほとんどは、SEDと通常のディスクで同じです。
ストレージ暗号化は非常に低いレベル(具体的にはディスク ファームウェア)で実行されるため、高
いレベルの機能には影響しません。ストレージ コントローラは通常のディスクと同じようにSEDを認
識するので、すべての機能をそのまま使用できます。
SEDを使用する場合には、いくつかの追加のオプションと要件があります。
•
ディスクの完全消去
SEDを使用する場合は、ディスクの完全消去を実行するための追加のオプションがあります。
•
ディスクの削除
追加のオプションを使用すると、ディスクを永続的にアクセスできない状態にすることができま
す。
ストレージ暗号化を使用する利点
ストレージ暗号化を使用すると、ストレージ システムから取り外したディスクが悪意のある人物の
手に渡った場合にデータを不正アクセスから保護することができます。このように、いくつかのシナ
リオではストレージ暗号化によって大きなメリットがもたらされます。
ディスクの紛失時または盗難時におけるデータ保護
ストレージ暗号化を使用すると、ディスクを紛失したり、ディスクが盗難にあったりした場合にデータ
が保護されます。
データを格納したディスクを入手しても、ストレージ暗号化が使用されていればデータにアクセスす
ることはできません。ディスクの認証とロック解除に必要な認証キーがなければ、データの読み取
りや書き込みを試行しても、SEDからエラー メッセージが返されます。
暗号化ファームウェアを使用せずに、プラッタを別のディスクに移してディスク認証を回避しようとし
ても失敗します。プラッタに格納されたデータは暗号化テキストとして扱われ、不正アクセスから完
全に保護されます。
ディスクをベンダーに返却する場合のデータ保護
ディスクをベンダーに返却する場合は、ストレージ暗号化を使用してデータを保護します。
ストレージ システムから取り外してベンダーに返却するディスクのデータを保護するためのオプシ
ョンは次の3つです。
•
ストレージ システムが所有するSEDの場合は、データにアクセスするための認証が必要です。
ベンダーは認証キーがわからない(または認証キーにアクセスできない)ので、ディスクのデー
タにアクセスすることはできません。
ストレージ暗号化による保管データの保護 | 87
•
ディスクの完全消去を実行してからベンダーに返却する場合は、暗号化キーが新しい不明なキ
ーに変更されます。そのため、それ以降にディスクからのデータ読み取りを試行すると、ランダ
ム データが生成されます。
•
ディスクを「破壊」すると、暗号化キーと認証キーが不明なランダム キーに変更され、ディスク
が永続的にロックされます。これにより、データの復号化やディスクへのアクセスができなくなり
ます。
関連タスク
ストレージ暗号化を使用したディスクの完全消去(ベンダーへの返却前の作業)(105ページ)
ディスクをend-of-life状態に移行する場合のデータ保護
ストレージ暗号化を使用すると、ディスクをend-of-life状態に移行する場合にデータが保護されま
す。
認証キーをランダム値に変更してディスクのデータを保護できます。このランダム値は格納され
ず、ドライブを永続的にロックします。これにより、データの復号化やディスクへのアクセスができな
くなります。
関連タスク
ストレージ暗号化を使用してディスクの状態をend-of-lifeに設定する作業(107ページ)
データ シュレッディングを使用した緊急時のデータ保護
ストレージ暗号化では、ディスクのデータへのアクセスを瞬時に禁止できるため、緊急時でもデー
タが保護されます。
このような緊急時には、ストレージ システムまたはキー管理サーバ(あるいはその両方)への給電
が遮断された場合や、悪意のある第三者がそれらのいずれかまたは両方を入手した場合などの
極端な例が含まれます。
関連タスク
ストレージ暗号化を使用した緊急時のディスクのデータのシュレッディング(108ページ)
ストレージ暗号化の制限事項
ストレージ暗号化を使用する場合に注意する必要のある制限事項がいくつかあります。
•
ストレージ暗号化でサポートされるストレージ システム、ディスク シェルフ、およびキー管理サ
ーバの最新情報については、Interoperability Matrixを参照してください。
•
ストレージ システムおよび接続されているオプションのディスク シェルフ内のすべてのディスク
の暗号化機能でストレージ暗号化を使用できる状態にしておく必要があります。
通常の非暗号化ディスクと自己暗号化ディスクを混在させることはできません。
•
ストレージ暗号化のkey_managerコマンドは、ローカル ノードでのみ使用できます。
88 | 物理ストレージ管理ガイド
パートナー ノードのテイクオーバー モードでは使用できません。
•
キー管理サーバとの通信に10ギガビット ネットワーク インターフェイスを使用するようにストレ
ージ暗号化を設定しないでください。
この制限事項はデータの提供には適用されません。
•
ストレージ暗号化では、キー管理サーバ1台につき最大128個の認証キーがサポートされます。
格納されている認証キーの数が100個になると、警告が表示されます。格納されている認証キ
ーの数が上限の128個になった場合は、新しい認証キーを作成できません。使用していない認
証キーを削除してから、新しい認証キーを作成する必要があります。
•
ストレージ暗号化では、キー管理サーバとの通信用にKMIP 1.0および1.1がサポートされます。
関連情報
Interoperability Matrix Tool:mysupport.netapp.com/matrix
ストレージ暗号化のセットアップ
初期セットアップでは、ストレージ システムが自己暗号化ディスクを使用して適切に設定されてい
るかどうか、およびストレージ暗号化をサポートするData ONTAPのバージョンを実行しているかど
うかが確認されます。設定とバージョンが確認され、ストレージ システム セットアップ ウィザードが
完了すると、ストレージ暗号化のセットアップ ウィザードを起動できます。
ストレージ暗号化の設定前に収集する情報
ストレージ システムでストレージ暗号化のセットアップを成功させるには、特定の情報を収集する
必要があります。
収集する情報
詳細
ネットワーク インターフェ
イス名
外部キー管理サーバと通信するためにス
トレージ システムが使用するネットワーク
インターフェイスの名前を指定する必要が
あります。
必須
x
注: キー管理サーバとの通信用に10ギ
ガビット ネットワーク インターフェイスを
設定しないでください。
ネットワーク インターフェ
イスのIPアドレス
ネットワーク インターフェイスのIPアドレス
を指定する必要があります。IPv4または
IPv6形式のIPアドレスを使用できます。
x
オプショ
ン
ストレージ暗号化による保管データの保護 | 89
収集する情報
詳細
必須
IPv6ネットワーク プレフィ
ックス長
IPv6アドレスの場合は、ネットワーク プレフ
ィックス長を指定する必要があります。そ
のためには、IPv6アドレスを入力するとき
にスラッシュ(/)とネットワーク プレフィック
ス長を直接追加するか、またはアドレスの
入力後にプロンプトが表示されたら、ネット
ワーク プレフィックス長を別途入力します。
x
ネットワーク インターフェ
イスのサブネット マスク
ネットワーク インターフェイスのサブネット
マスクを指定する必要があります。
x
ネットワーク インターフェ
イスのゲートウェイのIPア
ドレス
ネットワーク インターフェイスのゲートウェ
イのIPアドレスを指定する必要がありま
す。
x
外部キー管理サーバのIP
アドレス
セットアップ時に、ストレージ システムを少
なくとも1台の外部キー管理サーバにリンク
する必要があります。単一点障害の発生
を回避するには、2台以上の外部キー管理
サーバを追加してください。外部キー管理
サーバを1台しか追加していない場合に、
そのサーバで障害が発生すると、データに
アクセスできなくなる可能性があります。
外部キー管理サーバのIPv6アドレスを指
定する場合は、ストレージ システムのネッ
トワーク インターフェイスのIPv6アドレスも
指定する必要があります。
x
追加の外部キー管理サ
ーバのIPアドレス
セットアップ時に、ストレージ システムを複
数台の追加の外部キー管理サーバにリン
クして、冗長性を確保できます。
各外部キー管理サーバ
のポート番号
各キー管理サーバがリスンするポート番号
を指定する必要があります。すべてのキー
管理サーバで同じポート番号を使用してく
ださい。
x
ストレージ システムのパ
ブリックSSL証明書
ストレージ システムを外部キー管理サー
バにリンクするには、ストレージ システム
のパブリックSSL証明書を指定する必要が
あります。
x
ストレージ システムのプ
ライベートSSL証明書
ストレージ システムのプライベートSSL証
明書を指定する必要があります。
x
オプショ
ン
x
90 | 物理ストレージ管理ガイド
収集する情報
詳細
必須
外部キー管理サーバの
パブリックSSL証明書
各外部キー管理サーバをストレージ シス
テムにリンクするには、それらのサーバの
パブリックSSL証明書を指定する必要があ
ります。
キー タグ名
特定のストレージ システムに属するすべて
のキーを特定するための名前を指定でき
ます。デフォルトのキー タグ名はシステム
のホスト名です。
オプショ
ン
x
x
セキュアなキー管理通信のためのSSLの使用
ストレージ システムとキー管理サーバでは、SSL接続を使用して、両者間の通信をセキュアな状態
に維持します。そのためには、ストレージ システムと各キー管理サーバのさまざまなSSL証明書を
取得してインストールしてから、ストレージ暗号化をセットアップおよび設定する必要があります。
SSL証明書のインストール時の問題を回避するには、最初に次のシステム間で時刻を同期してお
く必要があります。
•
証明書を作成するサーバ
•
キー管理サーバ
•
ストレージ システム
SSL証明書の要件
SSL証明書を取得してインストールする前に、必要な証明書とその要件について理解しておく必要
があります。
ストレージ暗号化用のSSL証明書では、Privacy Enhanced Mail(PEM)Base-64でエンコードされた
X.509形式を使用し、厳密な命名規則に従う必要があります。次の表は、必要な証明書の種類と
命名規則を示しています。
証明書の用途
証明書タイ
プ
証明書ファイル名
ストレージ シス
テム
パブリック
client.pem
ストレージ シス
テム
プライベー
ト
client_private.pem
ストレージ暗号化による保管データの保護 | 91
証明書の用途
証明書タイ
プ
証明書ファイル名
キー管理サーバ
パブリック
key_management_server_ipaddress_CA.pem
key_management_server_ipaddressには、ストレージ暗号
化のセットアップ プログラムの実行時にキー管理サーバの識
別に使用する、キー管理サーバのIPアドレスを指定します。
前述のパブリック証明書とプライベート証明書は、ストレージ システムとキー管理サーバ間で相互
にセキュアなSSL接続を確立し、IDを検証するために必要です。
ストレージ システム用の証明書はストレージ システムのKMIPクライアントでのみ使用されます。
プライベート証明書は、作成時にパスフレーズで保護できます。その場合は、ストレージ暗号化の
セットアップ プログラムでパスフレーズの入力を求められます。
キー管理サーバで自己署名証明書が許可されない場合は、必要なCertificate Authority(CA;認証
局)のパブリック証明書を含める必要があります。
HAペアでは、両方のノードで同じパブリック証明書とプライベート証明書を使用する必要がありま
す。
同じキー管理サーバに接続されている複数のHAペアが相互のキーにアクセスできるようにするに
は、すべてのHAペアのすべてのノードで同じパブリック証明書とプライベート証明書を使用する必
要があります。
ストレージ システムへのSSL証明書のインストール
keymgr install certコマンドを使用して、必要なSSL証明書をストレージ システムにインストー
ルします。ストレージ システムとキー管理サーバ間の通信を保護するにはSSL証明書が必要で
す。
開始する前に
ストレージ システムのパブリック証明書とプライベート証明書およびキー管理サーバのパブリック
証明書を入手し、必要に応じてそれらの名前を指定しておく必要があります。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. ストレージ システム上の一時ディレクトリに証明書ファイルを複製します。
3. ストレージ システム プロンプトで次のコマンドを入力して、ストレージ システムのパブリック証明
書をインストールします。
keymgr install cert /path/client.pem
92 | 物理ストレージ管理ガイド
4. ストレージ システム プロンプトで次のコマンドを入力して、ストレージ システムのプライベート証
明書をインストールします。
keymgr install cert /path/client_private.pem
5. ストレージ システム プロンプトで次のコマンドを入力して、キー管理サーバのパブリック証明書
をインストールします。
keymgr install cert /path/key_management_server_ipaddress_CA.pem
6. 複数のキー管理サーバをストレージ システムにリンクする場合は、各キー管理サーバのパブリ
ック証明書ごとに前述の手順を繰り返します。
7. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
ストレージ暗号化のセットアップ ウィザードの実行
ストレージ暗号化のセットアップ ウィザードを起動するには、key_manager setupコマンドを使用
します。ストレージ暗号化のセットアップ ウィザードは、ストレージ システムとストレージ ボリューム
のセットアップが完了したあと、または初期セットアップ後にストレージ暗号化の設定を変更する必
要がある場合に実行してください。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. ストレージ システム プロンプトで次のコマンドを入力します。
key_manager setup
3. ウィザードの手順に従って、ストレージ暗号化を設定します。
4. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
例
ストレージ暗号化のセットアップ ウィザードを起動して、ストレージ暗号化の設定方法の例を
表示するコマンドを次に示します。
storage-system*> key_manager setup
Found client certificate file client.pem.
Registration successful for client.pem.
Found client private key file client_private.pem.
Is this file protected by a passphrase? [no]:
Registration successful for client_private.pem.
Enter the IP address for a key server, 'q' to quit:
Enter the IP address for a key server, 'q' to quit:
172.22.192.192
q
ストレージ暗号化による保管データの保護 | 93
Enter the TCP port number for kmip server [6001] :
You will now be prompted to enter a key tag name. The
key tag name is used to identify all keys belonging to this
Data ONTAP system. The default key tag name is based on the
system's hostname.
Would you like to use <storage-system> as the default key tag name?
[yes]:
Registering 1 key servers...
Found client CA certificate file 172.22.192.192_CA.pem.
Registration successful for 172.22.192.192_CA.pem.
Registration complete.
You will now be prompted for a subset of your network configuration
setup. These parameters will define a pre-boot network environment
allowing secure connections to the registered key server(s).
Enter
Enter
Enter
Enter
network interface: e0a
IP address: 172.16.132.165
netmask:
255.255.252.0
gateway: 172.16.132.1
Do you wish to enter or generate a passphrase for the system's
encrypting drives at this time? [yes]: yes
Would you like the system to autogenerate a passphrase? [yes]:
yes
Key ID:
080CDCB20000000001000000000000003FE505B0C5E3E76061EE48E02A29822C
Make sure that you keep a copy of your passphrase, key ID, and key
tag
name in a secure location in case it is ever needed for recovery
purposes.
Should the system lock all encrypting drives at this time? yes
Completed rekey on 4 disks: 4 successes, 0 failures, including 0
unknown key and 0 authentication failures.
Completed lock on 4 disks: 4 successes, 0 failures, including 0
unknown key and 0 authentication failures.
94 | 物理ストレージ管理ガイド
ストレージ暗号化の管理
キー管理サーバの表示と削除、認証キーの作成、削除、リストア、同期など、ストレージ暗号化を
管理するためのさまざまなタスクを実行できます。
キー管理サーバの追加
key_manager addコマンドを使用して、キー管理サーバをストレージ システムにリンクできます。
これにより、初期セットアップ後にキー管理サーバを追加して冗長性を確保したり、既存のキー管
理サーバを入れ替えたりできます。
開始する前に
ストレージ システムとキー管理サーバの必要なSSL証明書を最初にインストールしておく必要があ
ります。必要な証明書が存在しない場合は、コマンドが失敗します。
リンクする各キー管理サーバのIPアドレスを確認しておく必要があります。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 次のコマンドを入力して、キー管理サーバを追加します。
key_manager add -key_server key_server_ip_address
3. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
例
ストレージ システムからIPアドレスが172.16.132.118のキー管理サーバへのリンクを追加す
るコマンドの例を次に示します。
storage-system> key_manager add -key_server 172.16.132.118
Found client certificate file client.pem.
Registration successful for client.pem.
Found client private key file client_private.pem.
Is this file protected by a passphrase? [no]: no
Registration successful for client_private.pem.
Registering 1 key servers...
Found client CA certificate file 172.16.132.118_CA.pem.
Registration successful for 172.16.132.118_CA.pem.
Registration complete.
ストレージ暗号化による保管データの保護 | 95
キー管理サーバのリンクの確認
key_manager statusコマンドまたはkey_manager queryコマンドを使用して、すべてのキー管
理サーバがストレージ システムに正常にリンクされていることを確認します。 これらのコマンドは、
動作が適切かどうかを確認する場合やトラブルシューティングに役立ちます。
タスク概要
どちらのコマンドでも、キー管理サーバが応答するかどうかが表示されます。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 次のいずれかを実行します。
状況
入力するコマンド
特定のキー管理サーバのス
テータスを確認する
key_manager status key_server key_server_ip_address
すべてのキー管理サーバの
ステータスを確認する
key_manager status
すべてのキー管理サーバの
ステータスを確認し、サーバ
の追加情報を表示する
key_manager query
key_manager queryコマンドは、キー タグとキーIDの追加情報を
表示します。
3. Data ONTAPキー テーブルに適切なすべてのキーがあるかどうかを出力で確認します。
key_manager queryコマンドの出力にアスタリスク(*)付きのキーIDが表示される場合、それ
らのキーはキー サーバには存在しますが、現在Data ONTAPキー テーブルにはありません。
このようなキーをキー管理サーバからキー テーブルにインポートするには、次のコマンドを入
力します。
key_manager restore
4. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
例
ストレージ システムにリンクされているすべてのキー管理サーバのステータスを確認するコ
マンドの例を次に示します。
96 | 物理ストレージ管理ガイド
storage-system> key_manager status
Key server
Status
172.16.132.118
Server is responding
172.16.132.211
Server is responding
ストレージ システムにリンクされているすべてのキー管理サーバのステータスを確認し、追
加情報を表示するコマンドの例を次に示します。
storage-system> key_manager query
Key server 172.16.132.118 is responding.
Key server 172.16.132.211 is responding.
Key server 172.16.132.118 reports 4 keys.
Key tag
-------storage-system
storage-system
storage-system
storage-system
Key ID
------080CDCB20...
080CDCB20...
080CDCB20...
080CDCB20...
Key server 172.16.132.211 reports 4 keys.
Key tag
-------storage-system
storage-system
storage-system
storage-system
Key ID
------*080CDCB20...
080CDCB20...
080CDCB20...
*080CDCB20...
キー管理サーバ情報の表示
key_manager showコマンドを使用して、ストレージ システムに関連付けられている外部キー管理
サーバに関する情報を表示できます。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 次のコマンドを入力して、外部キー管理サーバを表示します。
key_manager show
ストレージ システムに関連付けられているすべての外部キー管理サーバが表示されます。
3. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
ストレージ暗号化による保管データの保護 | 97
例
ストレージ システムに関連付けられているすべての外部キー管理サーバを表示するコマン
ドの例を次に示します。
storage-system> key_manager show
172.18.99.175
キー管理サーバの削除
ストレージ システム内の自己暗号化ディスクで使用する認証キーをキー管理サーバで格納する必
要がなくなった場合は、key_manager removeコマンドを使用してキー管理サーバとストレージ シ
ステムのリンクを解除できます。
開始する前に
削除する各キー管理サーバのIPアドレスを確認しておく必要があります。
タスク概要
ストレージ暗号化を使用するには、少なくとも1台のキー管理サーバをストレージ システムにリンク
する必要があります。1台のキー管理サーバを別のキー管理サーバに入れ替える場合は、新しい
キー管理サーバを先に追加してから古いキー管理サーバを削除する必要があります。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 次のコマンドを入力して、キー管理サーバを削除します。
key_manager remove -key_server key_server_ip_address
-key_server key_server_ip_addressは、削除するキー管理サーバのIPアドレスを指定し
ます。
3. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
例
IPアドレスが172.18.99.175のキー管理サーバとストレージ システム間のリンクを解除するコ
マンドの例を次に示します。
98 | 物理ストレージ管理ガイド
storage-system> key_manager remove -key_server 172.18.99.175
Key server 172.18.99.175 will be unregistered from service.
Unregistration successful.
ブート プロセスでキー管理サーバにアクセスできない場合
ブート プロセス時にストレージ システムが指定されたどのキー管理サーバにもアクセスできない
場合、Data ONTAPではストレージ システムの望ましくない動作を回避するために、特定の予防措
置を取ります。
ストレージ システムがストレージ暗号化用に構成されている場合、SEDのキーが変更されてロック
されている状態でSEDの電源を入れたときは、ストレージ システムは必要な認証キーをキー管理
サーバから取得して、SEDに対してストレージ システム自体を認証する必要があります。これによ
り、ストレージ システムはデータにアクセスできるようになります。
ストレージ システムは、指定されたキー管理サーバへのアクセスを最長で3時間試行します。3時
間が経過してもストレージ システムがどのキー管理サーバにもアクセスできない場合は、ブート プ
ロセスが停止して、ストレージ システムも停止します。
ストレージ システムが指定されたいずれかのキー管理サーバに正常にアクセスできた場合は、
SSL接続の確立を最長で15分間試行します。ストレージ システムが指定されたどのキー管理サー
バともSSL接続を確立できない場合は、ブート プロセスが停止して、ストレージ システムも停止しま
す。
ストレージ システムがキー管理サーバに対してアクセスと接続を試行している間、失敗したアクセ
ス試行に関する詳細情報がCLIに表示されます。アクセスの試行は、Ctrl+Cキーを押していつでも
中断できます。
SEDでは、セキュリティ対策として、無許可のアクセス試行回数が制限されています。試行回数が
上限に達すると、既存データへのアクセスが無効になります。ストレージ システムが指定されたど
のキー管理サーバにもアクセスできず、適切な認証キーを取得できない場合は、デフォルトのキー
を使用した認証のみ試行できます。この場合、認証が失敗したり、パニック状態になったりします。
パニック状態になった場合に自動的にリブートするように構成されているストレージ システムはブ
ート ループに入り、SEDでの認証が連続して失敗します。
仕様では、次のような場合にストレージ システムを停止して、認証の連続失敗回数の上限を超え
たことが原因でSEDが永続的にロックされても、ストレージ システムがブート ループに入ったり、意
図しないデータ損失が発生したりすることを回避します。ロックアウト保護の制限とタイプは、SED
のタイプによって次のように異なります。
SEDタイプ
ロックアウトされるまでの認証の
連続失敗回数
連続失敗回数の上限に達した場合のロック
アウト保護タイプ
HDD
1024
永続的。適切な認証キーが再び使用可能
になった場合でも、データをリカバリできま
せん。
ストレージ暗号化による保管データの保護 | 99
SEDタイプ
ロックアウトされるまでの認証の
連続失敗回数
連続失敗回数の上限に達した場合のロック
アウト保護タイプ
SSD
5
一時的。ロックアウトが有効なのは、ディス
クの電源が再投入されるまでです。
すべてのSEDタイプでは、認証が成功すると試行回数が0にリセットされます。
ストレージ システムが指定されたどのキー管理サーバにもアクセスできないために停止した場合
は、引き続きストレージ システムのブートを試行する前に、通信エラーの原因を特定および修正し
ておく必要があります。
ストレージ暗号化によるディスク情報の表示
disk encrypt showコマンドを使用して、自己暗号化ディスクに関する情報を表示できます。この
コマンドは、それぞれの自己暗号化ディスクのキーIDとロックのステータスを表示します。
タスク概要
コマンド出力に表示されるキーIDは、ストレージ暗号化およびキー管理サーバが認証キーへの参
照として使用する識別子です。実際の認証キーまたはデータ暗号化キーではありません。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 次のコマンドを入力して、SEDに関する情報を表示します。
disk encrypt show
disk encrypt show、lock、およびrekeyの各コマンドでは拡張ワイルドカードの一致がサポ
ートされます。詳細については、disk encrypt showのマニュアル ページを参照してくださ
い。
3. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
例
それぞれの自己暗号化ディスクのステータスを表示するコマンドの例を次に示します。
storage-system> disk encrypt show
Disk
Key ID
0c.00.1
080CF0C8000000000100000000000000A948EE8604F4598ADFFB185B5BB7FED3
0c.00.0
080CF0C8000000000100000000000000A948EE8604F4598ADFFB185B5BB7FED3
Locked?
Yes
Yes
100 | 物理ストレージ管理ガイド
0c.00.3
0c.00.4
0c.00.2
0c.00.5
080CF0C8000000000100000000000000A948EE8604F4598ADFFB185B5BB7FED3
080CF0C8000000000100000000000000A948EE8604F4598ADFFB185B5BB7FED3
080CF0C8000000000100000000000000A948EE8604F4598ADFFB185B5BB7FED3
080CF0C8000000000100000000000000A948EE8604F4598ADFFB185B5BB7FED3
Yes
Yes
Yes
Yes
認証キーの変更
key_manager rekeyコマンドを使用していつでも認証キーを変更できます。セキュリティ プロトコ
ルの一部として、または別のストレージ システムにアグリゲートを移動する際に、認証キーの変更
が必要になる場合があります。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 次のいずれかを実行します。
状況
操作
認証キーを変更し、新しい認
a.
証キーを手動で入力する
ストレージ システム プロンプトで次のコマンドを入力します。
key_manager rekey -manual -key_tag key_tag
b.
認証キーを変更し、システム
で新しい認証キーを自動生
成する
プロンプトが表示されたら、新しい認証キーを入力します。
認証キーは、20~32文字で入力する必要があります。
ストレージ システム プロンプトで次のコマンドを入力します。
key_manager rekey -key_tag key_tag
key_tagは、キーを特定のストレージ システムに関連付けるために使用するラベルです。キー
タグを指定しないと、ストレージ システムではストレージ暗号化の設定時に指定されたキー タ
グが使用されます。ストレージ暗号化の設定時にこのキー タグを指定しなかった場合、ストレ
ージ システムでは親キー タグがデフォルトで使用されます。各ノードには親キー タグが指定さ
れています。HAペアのメンバーは同じ親キー タグを共有します。
3. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
例
認証キーを変更して、新しい認証キーを手動で入力するよう求めるコマンドの例を次に示し
ます。結果を確認したら、disk encrypt showコマンドを実行できます。
storage-system> key_manager rekey -manual
Please enter a new passphrase:
Please reenter the new passphrase:
ストレージ暗号化による保管データの保護 | 101
New passphrase generated.
Key ID:
080CDCB2000000000100000000000000B0A11CBF3DDD20EFB0FBB5EE198DB22A
Key tag: storage-system
Notice: Remember to store the passphrase and the Key ID in a secure
location.
Passphrase, key ID, and key tag synchronized with the following key
server(s):
172.16.132.118
172.16.132.211
Completed rekey on 4 disks: 4 successes, 0 failures, including 0
unknown key and 0 authentication failures.
認証キーの取得
key_manager restoreコマンドを使用して、キー管理サーバからストレージ システムへの認証キ
ーを取得できます。 たとえば、ノードで認証キーを作成した場合は、このコマンドを実行して、パー
トナー ノードで使用するキーを取得します。
開始する前に
認証キーの取得元である各キー管理サーバのIPアドレスを確認しておく必要があります。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 次のコマンドを入力して、キー管理サーバからストレージ システムへの認証キーを取得しま
す。
key_manager restore -key_server key_server_ip_address -key_tag key_tag
指定したキー管理サーバがすべて使用可能な場合は、-key_serverオプションの代わりにallオプションを使用して、現在のData ONTAPキー テーブルを消去し、指定したキー タグに一
致するすべてのキーを、指定したすべてのキー管理サーバから取得できます。
3. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
例
IPアドレスが172.18.99.175のキー管理サーバからキー タグstorage-systemを含むキーをリス
トアするコマンドの例を次に示します。
102 | 物理ストレージ管理ガイド
storage-system> key_manager restore -key_server 172.18.99.175 key_tag storage-system
ストレージ システムにリンクされているすべてのキー管理サーバからキー タグstoragesystemを含むすべてのキーをリストアするコマンドの例を次に示します。
storage-system> key_manager restore -all -key_tag storage-system
認証キーの削除
不要になった認証キーを削除できます。そのためには、認証キーを外部キー管理サーバから削除
します。
開始する前に
認証キーを削除する前に、そのキーが不要かどうかを確認してください。使用中の認証キーを削
除すると、ストレージ システム上のデータに永続的にアクセスできなくなります。
手順
1. 外部キー管理サーバのドキュメントで、格納されている認証キーの削除方法の詳細を確認しま
す。
有効期限切れの証明書が原因のSSLの問題
ストレージ システムとキー管理サーバ間のキー管理通信の保護に使用するSSL証明書の有効期
限が切れた場合、ストレージ システムは起動時にキー管理サーバから認証キーを取得できなくな
ります。この問題が原因で、SEDのデータを使用できなくなる可能性があります。個々の有効期限
の前にすべてのSSL証明書を更新することで、この問題を回避できます。
SSL証明書には有効期限が設定されているので、使用できる期間に限りがあります。SSL証明書
の有効期限に達すると、その証明書は無効になります。この場合、有効期限切れの証明書を使用
するSSL接続は失敗します。
ストレージ暗号化の場合は、ストレージ システムとキー管理サーバ間のSSL接続が失敗し、ストレ
ージ システムは必要なときに認証キーを取得できなくなります。さらに、SEDへのデータ アクセス
が失敗し、ストレージ システムがパニック状態になったり、ダウンタイムが発生したりします。
この問題の発生を回避するには、インストールされているすべてのSSL証明書の有効期限を管理
し、有効期限が切れる前に新しいSSL証明書を取得できるようにする必要があります。
新しい証明書ファイルを取得したあとは、先に既存の証明書ファイルをストレージ システムから削
除して、新しい証明書をストレージ システムにインストールしてください。
ストレージ暗号化による保管データの保護 | 103
手順
1. 古いSSL証明書の削除(新しいSSL証明書をインストールする前の作業)(103ページ)
ストレージ暗号化で使用するSSL証明書を更新または再インストールする場合は、最初に古い
SSL証明書を手動で削除して、新しいSSL証明書を使用できる状態にしておく必要があります。
2. ストレージ システムへの交換用SSL証明書のインストール(103ページ)
古い証明書を削除したら、新しい交換用SSL証明書を作成して、適切なファイル名と形式で保
存してから、ストレージ システムにインストールします。
古いSSL証明書の削除(新しいSSL証明書をインストールする前の作業)
ストレージ暗号化で使用するSSL証明書を更新または再インストールする場合は、最初に古いSSL
証明書を手動で削除して、新しいSSL証明書を使用できる状態にしておく必要があります。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 各キー管理サーバについて次のコマンドを入力して、すべてのキー管理サーバのIPアドレスを
削除します。
key_manager remove -key_server key_server_ip_address
3. 次のコマンドを入力して、ストレージ システムのクライアント証明書を削除します。
keymgr delete cert client_private.pem
keymgr delete cert client.pem
4. 各キー管理サーバについて次のコマンドを入力して、インストールされているキー管理サーバ
証明書をすべて削除します。
keymgr delete cert key_server_ip_address_CA.pem
5. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
ストレージ システムへの交換用SSL証明書のインストール
古い証明書を削除したら、新しい交換用SSL証明書を作成して、適切なファイル名と形式で保存し
てから、ストレージ システムにインストールします。
開始する前に
•
有効期限が切れそうな古い証明書をストレージ システムから削除しておく必要があります。
•
ストレージ システムの交換用のパブリック証明書とプライベート証明書およびキー管理サーバ
のパブリック証明書を入手し、必要に応じてそれらの名前を指定しておく必要があります。
104 | 物理ストレージ管理ガイド
詳細については、『clustered Data ONTAP システム アドミニストレーション ガイド(クラスタ管
理)』を参照してください。
•
キー管理サーバに適切な新しい証明書をインストールしておく必要があります。
詳細については、キー管理サーバのドキュメントを参照してください。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. ストレージ システム上の一時ディレクトリに証明書ファイルを複製します。
3. 次のコマンドを入力して、ストレージ システムのパブリック証明書をインストールします。
keymgr install cert /path/client.pem
4. 次のコマンドを入力して、ストレージ システムのプライベート証明書をインストールします。
keymgr install cert /path/client_private.pem
5. 各キー管理サーバについて次のコマンドを入力して、すべてのキー管理サーバのパブリック証
明書をインストールします。
keymgr install cert /path/key_management_server_ipaddress_CA.pem
6. 各キー管理サーバについて次のコマンドを入力して、すべてのキー管理サーバを追加します。
key_manager add -key_server key_server_ip_address
7. 次のコマンドを入力して、ストレージ システムとキー管理サーバ間の接続を確認します。
key_manager query
キー管理サーバから取得した既存のキーIDの一覧が表示されます。
8. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
SEDを非保護モードに戻す
ストレージ暗号化を使用するようにストレージ システムが構成されている状態で、この機能の使用
を停止する場合は、SEDを非保護モードに戻します。SEDは格納するデータを常に暗号化するた
め、ストレージ暗号化を完全に無効にすることはできません。ただし、SEDを非保護モードに戻すこ
とは可能です。このモードではシークレット認証キーが使用されず、代わりにデフォルトのMSIDが
使用されます。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
ストレージ暗号化による保管データの保護 | 105
2. 次のコマンドを入力して、ストレージ システムのすべてのSEDの認証キーをデフォルトのMSID
に戻します。
disk encrypt rekey * 0x0
3. ストレージ システムを永続的に非保護モードで使用する場合は、各キー管理サーバについて
次のコマンドを入力して、すべてのキー管理サーバを削除する必要もあります。
key_manager remove -key_server key_server_ip_address
-key_server key_server_ip_addressは、削除するキー管理サーバのIPアドレスを指定し
ます。
ストレージ システムでは、すべてのキー管理サーバを削除したあと、起動のたびに2つの
kmip_initエラーが表示されます。この状況ではこれらのエラーは問題ないため、無視してもか
まいません。
4. ストレージ システムを永続的に非保護モードで使用する際に、前述の手順ですべてのキー管
理サーバを削除済みの場合は、インストールされているストレージ暗号化に関連するSSL証明
書のリストを確認してから、キー管理サーバのすべてのSSL証明書を削除する必要がありま
す。
keymgr cert list
keymgr delete cert client.pem
keymgr delete cert client_private.pem
keymgr delete cert key_management_server_ipaddress_CA.pem
複数のキー管理サーバをストレージ システムにリンクしている場合は、各キー管理サーバのそ
れぞれのパブリック証明書について最後のコマンドを実行してください。
5. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
ストレージ暗号化を使用したディスクのデータの削除
セキュリティ上の理由で、ストレージ暗号化を使用して、ディスクに格納されたデータを削除できま
す。その方法としては、ディスクの完全消去、ディスクの状態のend-of-lifeへの設定、および緊急時
のデータ シュレッディングがあります。
ストレージ暗号化を使用したディスクの完全消去(ベンダーへの返却前の作業)
ディスクをベンダーに返却する前に、ディスク内の機密データにアクセスできないようにする場合
は、disk encrypt sanitizeコマンドを使用してディスクを完全消去できます。これで、ディスク
106 | 物理ストレージ管理ガイド
内のデータにアクセスできなくなりますが、ディスクの再利用は可能です。このコマンドはスペア デ
ィスクでのみ使用できます。
手順
1. 保持する必要のあるデータを別のアグリゲートにすべて移行します。
2. アグリゲートを削除します。
3. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
4. 次のコマンドを入力して、完全消去するディスクのディスクIDを確認します。
disk encrypt show
5. 次のコマンドを入力します。
disk encrypt sanitize disk_ID
6. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
例
ディスクIDが0c.00.3の自己暗号化ディスクを完全消去するコマンドの例を次に示します。結
果を確認する処理の前後に、sysconfig -rコマンドを実行できます。
storage-system> sysconfig -r
Aggregate aggr0 (online, raid_dp) (block checksums)
Plex /aggr0/plex0 (online, normal, active)
RAID group /aggr0/plex0/rg0 (normal)
RAID Disk
--------dparity
parity
data
Device
-----0c.00.0
0c.00.1
0c.00.2
HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
------------- ---- ---- ---- ----- --------------------------0c
0
0
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
0c
0
1
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
0c
0
2
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
Spare disks
RAID Disk
--------Spare disks
spare
spare
spare
Device
HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
------------------ ---- ---- ---- ----- --------------------------for block or zoned checksum traditional volumes or aggregates
0c.00.3
0c
0
3
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
0c.00.4
0c
0
4
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
0c.00.5
0c
0
5
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
storage-system> disk encrypt sanitize 0c.00.3
storage-system> Wed Jun 30 17:49:16 PDT [disk.failmsg:error]: Disk 0c.00.3 (3SL04F3V00009015WTHU):
message received.
Wed Jun 30 17:49:16 PDT [raid.disk.unload.done:info]: Unload of Disk 0c.00.3 Shelf 0 Bay 3 [SYSTEM
X415_S15K7560A15 NQS3] S/N [3SL04F3V00009015WTHU] has completed successfully
storage-system> Wed Jun 30 17:49:25 PDT [disk.sanit.complete:info]: Disk 0c.00.3 [S/N
3SL04F3V00009015WTHU] has completed sanitization.
storage-system> sysconfig r
Aggregate aggr0 (online, raid_dp) (block checksums)
Plex /aggr0/plex0 (online, normal, active)
RAID group /aggr0/plex0/rg0 (normal)
RAID Disk
---------
Device
------
HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
------------- ---- ---- ---- ----- --------------
Phys (MB/blks)
--------------
ストレージ暗号化による保管データの保護 | 107
dparity
parity
data
0c.00.0
0c.00.1
0c.00.2
0c
0c
0c
0
0
0
0
1
2
SA:B
SA:B
SA:B
-
SAS
SAS
SAS
15000 560000/1146880000 560208/1147307688
15000 560000/1146880000 560208/1147307688
15000 560000/1146880000 560208/1147307688
Spare disks
RAID Disk
Device
HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
-------------------------- ---- ---- ---- ----- --------------------------Spare disks for block or zoned checksum traditional volumes or aggregates
spare
0c.00.4
0c
0
4
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
spare
0c.00.5
0c
0
5
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
Maintenance disks
RAID Disk
Device
-------------sanitized
0c.00.3
storage-system>
HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
------------- ---- ---- ---- ----- --------------------------0c
0
3
SA:B
- SAS 15000 560000/1146880000 560208/1147307688
ストレージ暗号化を使用してディスクの状態をend-of-lifeに設定する作業
ディスクを永続的に使用できない状態にして、さらにディスク内のデータにもアクセスできないよう
にする場合は、disk encrypt destroyコマンドを使用してディスクの状態をend-of-lifeに設定で
きます。このコマンドはスペア ディスクでのみ使用できます。
手順
1. 対象のディスクを含むアグリゲートからデータをすべて削除します。
2. 保持する必要のあるデータを別のアグリゲートにすべて移行します。
3. アグリゲートを削除します。
4. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
5. 次のコマンドを入力します。
disk encrypt destroy disk_ID
6. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
7. ディスクのPSIDがラベルに印刷されており、そのディスクをあとから工場出荷時の設定にリセッ
トしたり、使用可能な状態に戻したりできないようにする場合は、ディスク ラベルのPSIDの情報
(テキストやスキャン可能なコード)をすべて消去します。
ディスク ラベルを複製 / スキャンしたもの、またはディスク ラベルの写真なども必ず破棄してく
ださい。
タスクの結果
ディスクの暗号化キーが不明なランダム値に設定され、ディスクが完全にロックされます。これで、
ディスクは完全に使用できない状態になったので、不正なデータ アクセスの危険性もなく安全に廃
棄できます。
108 | 物理ストレージ管理ガイド
ストレージ暗号化を使用した緊急時のディスクのデータのシュレッディング
セキュリティに関する緊急事態が発生した場合は、ストレージ システムまたは外部キー サーバへ
の給電が遮断されたとしても、ストレージ暗号化を使用して、ディスクのデータへのアクセスを瞬時
に禁止できます。
開始する前に
壊れやすい認証アイテム(スマート カードやUSBドライブなど)がある場合にのみ機能するように外
部キー サーバを設定する必要があります。詳細については、外部キー管理サーバのドキュメント
を参照してください。
タスク概要
緊急時のシュレッディングの手順は、ストレージ システムと外部キー サーバに給電されているか
どうかによって異なります。
手順
1. 次のいずれかを実行します。
状況または条件
ストレージ システムに給電さ
れており、ストレージ システ
ムを適切な手順でオフライン
にする時間がある
操作
a.
ストレージ システムがHAペアのノードである場合は、テイクオーバ
ーを無効にします。
b.
すべてのアグリゲートをオフラインにしてから削除します。
c.
ストレージ システムを停止します。
d.
メンテナンス モードでブートします。
e.
次のコマンドを入力します。
disk encrypt sanitize -all
これで、ストレージ システムは永続的に無効な状態になり、すべてのデ
ータが消去されます。ストレージ システムを再び使用するには、最初か
らセットアップを実行する必要があります。
ストレージ暗号化による保管データの保護 | 109
状況または条件
ストレージ システムに給電さ
れており、データをただちに
シュレッディングする必要が
ある
操作
a.
ストレージ システムがHAペアのノードである場合は、テイクオーバ
ーを無効にします。
b.
次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
c.
権限レベルをadvancedに設定します。
d.
次のコマンドを入力します。
disk encrypt sanitize -all
ストレージ システムがパニック状態になります。これは、ディスクの完全
消去を実行したことによる想定内の動作です。これで、ストレージ シス
テムは永続的に無効な状態になり、すべてのデータが消去されます。
ストレージ システムを再び使用するには、最初からセットアップを実行
する必要があります。
外部キー サーバに給電され
ているが、ストレージ システ
ムには給電されていない
外部キー サーバまたはスト
レージ システムに給電され
ていない
a.
外部キー サーバにログインします。
b.
保護対象のデータを格納するディスクに関連付けられているキーを
すべて削除します。
キー サーバ用の認証アイテム(スマート カードなど)を破棄します。シ
ステムへの給電が復旧しても、認証アイテムがなければ外部キー サー
バは機能しません。これにより、ストレージ システムからディスク暗号
化キーにアクセスできなくなるため、ディスクのデータにもアクセスでき
ません。
物理的なセキュアIDのSED用の機能
特定のSEDには、ディスクを工場出荷時の設定にリセットするための追加機能が搭載されていま
す。このようなディスクのラベルには、Physical Secure ID(PSID;物理的なセキュアID)が印刷され
ています。工場出荷時の設定にリセットするには、このIDが必要です。
PSIDは各ドライブに一意のIDです。このIDはディスク ラベルに印刷されており、SEDに物理的に
アクセスできるユーザであれば、だれでも確認できます。PSIDをSEDから電子的に取得することは
できません。ディスク ラベルを紛失した場合は、PSIDも失われ、再び入手することはできません。
PSIDを使用して工場出荷時の設定にリセットすると、次の項目を含むすべてのディスク パラメータ
が工場出荷時の設定にリセットされます。
•
メディアのデータの暗号化と復号化に使用する暗号化キーは不明な値に変更されます。
SEDに格納されていたデータには永続的にアクセスできなくなります。新しい不明な暗号化キ
ーを取得することはできません。この処理を元に戻すことはできません。
•
SEDの認証に必要な認証キーは、デフォルトのManufacturer's Secure ID(MSID;メーカーのセ
キュアID)に戻されます。
110 | 物理ストレージ管理ガイド
MSIDが新しいシークレット認証キーに変更されるまで、SEDに格納される新しいデータは保護
されません。
•
SEDの状態が以前にend-of-lifeに設定されていた場合でも、SEDを使用可能な状態に戻すこと
ができます。
以前に使用していたSEDをdisk encrypt destroyコマンドでend-of-life状態に設定した場合
は、PSIDを使用して、SEDをend-of-life状態から使用可能な通常の状態に復旧できます。ただ
し、SEDは工場出荷時の設定に戻ります。以前に使用していた暗号化キーや認証キーを復旧
したり、SEDに格納されていた以前のデータへのアクセスをリストアしたりすることはできませ
ん。
PSID機能を備えたSED
SEDにはいくつかのモデルがありますが、PSID機能が搭載されているのは一部のみです。PSID
機能を備えた初期のSEDモデルの場合、ディスク ラベルにPSIDが印刷されていないため、PSIDを
使用できません。
次の表を使用して、ご使用のSEDにPSID機能が搭載されているかどうかを確認してください。
ディスク モ
デル
PSID
機能
ディスク ラ
ベルへの
PSIDの印
刷
説明
X414
なし
なし
PSIDを使用してSEDを工場出荷時の設定にリセットするこ
とはできません。
X415
なし
なし
PSIDを使用してSEDを工場出荷時の設定にリセットするこ
とはできません。
X416
あり
通常は、あ
り
物理ディスクのラベルを確認してください。PSIDがラベル
に印刷されている場合は、PSIDを使用してSEDを工場出
荷時の設定にリセットできます。
X417
あり
通常は、あ
り
物理ディスクのラベルを確認してください。PSIDがラベル
に印刷されている場合は、PSIDを使用してSEDを工場出
荷時の設定にリセットできます。
その他の
すべての
SED
あり
あり
物理ディスクのラベルを確認してPSIDを入手してくださ
い。
ストレージ暗号化による保管データの保護 | 111
工場出荷時の設定へのSEDのリセット
以前にdisk encrypt destroyコマンドを使用して状態をend-of-lifeに設定したSEDを再び使用
する場合は、disk encrypt revert_originalコマンドを使用して、そのSEDを工場出荷時の
設定にリセットできます(ディスクのPSIDがラベルに印刷されている場合)。
開始する前に
ディスク ラベルでSEDのPSIDを確認しておく必要があります。
手順
1. 次のコマンドを入力して、ノードシェルにアクセスします。
system node run -node node_name
2. 権限レベルをadvancedに設定します。
priv set advanced
3. ディスクを工場出荷時の設定にリセットします。
disk encrypt revert_original disk_ID PSID
PSIDは、ディスク ラベルに印刷されている物理的なセキュアIDです。工場出荷時の設定にリセ
ットするにはPSIDが必要です。
4. ストレージ システムでディスクを使用できない状態にします。
disk fail disk_name
5. 再びストレージ システムでディスクを使用できる状態にします。
disk unfail -s disk_name
6. 処理が成功したことを確認します。
sysconfig -r
リセットしたディスクがスペア ディスクとして表示されます。
7. admin権限レベルに戻ります。
priv set admin
8. 次のコマンドを入力してノードシェルを終了し、クラスタシェルに戻ります。
exit
112 | 物理ストレージ管理ガイド
Data ONTAPでのRAIDを使用したデータとデータ可用性
の保護
RAIDによってデータとその可用性が保護されるしくみを理解することは、ストレージ システムのよ
り効果的な管理に役立ちます。
ネイティブ ストレージの場合、Data ONTAPはRAID-DP(ダブルパリティ)またはRAIDレベル4
(RAID4)の保護を使用して、グループ内の1つまたは2つのドライブで障害が発生した場合にも
RAIDグループ内でのデータの整合性を確保します。パリティ ドライブは、データ ドライブに格納さ
れているデータの冗長性を提供します。1つのドライブに障害が発生した場合(RAID-DPの場合は
最大2つのドライブ)、RAIDサブシステムはパリティ ドライブを使用して障害が発生したドライブの
データを再構築できます。
アレイLUNの場合、Data ONTAPはRAID0を使用してアレイLUN全体でデータをストライピングし
ます。ストレージ アレイがData ONTAPに提供するアレイLUNのRAID保護は、Data ONTAPではな
くストレージ アレイが提供します。
ディスクのRAID保護レベル
Data ONTAPでは、ネイティブ ディスク シェルフのディスクで構成されるアグリゲートに対して、
RAID-DPとRAID 4の2つのレベルのRAID保護がサポートされます。新しいアグリゲートのデフォ
ルトのRAIDレベルRAID-DPです。
RAIDの設定の詳細については、テクニカル レポート3437『Storage Subsystem Resiliency Guide』を
参照してください。
関連情報
TR 3437:『Storage Subsystem Resiliency Guide』
RAID-DP保護とは
アグリゲートにRAID-DP保護が設定されている場合、Data ONTAPはRAIDグループ内の1つまた
は2つの障害ディスクからデータを再構築して、このデータを必要に応じて1つまたは2つのスペア
ディスクに転送します。
RAID-DPは、次の場合に、ダブルパリティ ディスク保護を提供します。
•
RAIDグループ内に単一ディスク障害または二重ディスク障害が発生した場合。
•
Data ONTAPが障害ディスクを再構築しているときに、ブロック上にメディア エラーが発生した
場合。
RAID-DPグループ内の最小ディスク数は3です。少なくとも1つのデータ ディスク、1つの標準パリ
ティ ディスク、および1つのダブルパリティ(dParity)ディスクが必要です。ただし、ルート以外のアグ
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 113
リゲートでRAIDグループが1つだけの場合は、少なくとも5つのディスク(データ ディスクが3つとパ
リティ ディスクが2つ)が必要です。
RAID-DPグループでデータ ディスク障害またはパリティ ディスク障害が発生した場合、Data
ONTAPはRAIDグループ内の障害ディスクをスペア ディスクと交換し、パリティ データを使用して
障害ディスクのデータを交換ディスク上に再構築します。二重ディスク障害が発生した場合、Data
ONTAPはRAIDグループ内の障害ディスクを2つのスペア ディスクと交換し、ダブルパリティ データ
を使用して障害ディスクのデータを交換ディスク上に再構築します。
RAID-DPはすべてのアグリゲートに対するデフォルトのRAIDタイプです。
RAID 4保護とは
RAID 4には、RAIDグループ内の単一ディスク障害への対策として、単一パリティのディスク保護
機能が備わっています。アグリゲートにRAID 4保護が設定されている場合、Data ONTAPはRAID
グループ内で障害が発生した単一ディスクのデータを再構築し、再構築したデータをスペア ディス
クに転送します。
RAID 4グループ内の最少ディスク数は2です(少なくとも1つのデータ ディスクと1つのパリティ ディ
スクが必要です)。ただし、ルート以外のアグリゲートでRAIDグループが1つだけの場合は、少なく
とも3つのディスク(データ ディスクが2つとパリティ ディスクが1つ)が必要です。
RAID 4グループ内の1つのデータ ディスクまたはパリティ ディスクに障害が発生した場合、Data
ONTAPはRAIDグループ内の障害のあるディスクをスペア ディスクと交換し、パリティ データを使
用して障害ディスクのデータを交換したディスク上に再構築します。使用可能なスペア ディスクが
ない場合、Data ONTAPはデグレード モードになり、この状態をユーザに警告します。
注意: RAID 4では、最初に障害が発生したディスクのデータが再構築される前に2つ目のディス
ク障害が発生すると、データが失われます。2つのディスクに障害が発生した場合にデータが失
われないようにするには、RAID-DPを選択できます。RAID-DPではパリティ ディスクが2つ用意
され、最初の障害ディスクのデータが再構築される前に2番目のディスクに障害が発生した場合
も、データ消失が防止されます。
アレイLUNのRAID保護
Data ONTAPで使用できるアレイLUNのRAID保護は、ストレージ アレイによって提供されます。
Data ONTAPはRAID保護を提供しません。
Data ONTAPはアレイLUNにRAID 0(ストライピング)を使用します。Data ONTAPでは、ストレージ
アレイにさまざまなRAIDタイプを使用できますが、ストレージ保護を提供しないRAID 0だけはサポ
ートされていません。
ストレージ アレイにRAIDグループを作成するときは、ディスク障害によってデータが失われたりデ
ータにアクセスできなくなったりしないように、ストレージ アレイのベンダーのベスト プラクティスに
従って、ストレージ アレイに対する十分なレベルの保護を行うようにしてください。
注: ストレージ アレイ上のRAIDグループは、複数のディスクの配列で、定義されたRAIDレベル
を形成します。各RAIDグループがサポートするRAIDタイプは1つだけです。RAIDグループに対
114 | 物理ストレージ管理ガイド
して選択したディスク数によって、そのRAIDグループがサポートするRAIDタイプが決定します。
このエンティティを表す用語はストレージ アレイ ベンダーごとに異なり、RAIDグループ、パリティ
グループ、ディスク グループ、パリティRAIDグループなどと呼ばれます。
注: Data ONTAPでのネイティブ ディスク シェルフではRAID 4とRAID-DPがサポートされます
が、アレイLUNではRAID 0のみがサポートされます。
Data ONTAP-vストレージのRAID保護
Data ONTAP-vストレージは、Data ONTAPを実行しているストレージ システムではなくホスト サー
バに接続されているので、物理ディスクのRAID保護はホスト サーバによって実行されます。Data
ONTAPでは、仮想ディスクにRAID 0を使用してパフォーマンスを最適化します。
詳細については、『Data ONTAP Edge インストレーション アドミニストレーション ガイド』を参照して
ください。
RAIDおよびSyncMirrorで提供される保護
RAIDとSyncMirrorを組み合わせると、RAIDだけを使用する場合よりも多くの種類のドライブ障害
から保護することができます。
RAIDはSyncMirror機能と併用できます。SyncMirrorも、ドライブまたはその他のハードウェア コン
ポーネントの障害によるデータ損失からシステムを保護します。SyncMirrorはアグリゲート内のデ
ータのコピーを2つ(プレックスごとに1つずつ)保持して、データ損失から保護します。1つのプレック
ス内でドライブ障害によるデータ損失が発生しても、もう一方のプレックス内の正常なデータによっ
て修復されます。
SyncMirrorの詳細については、『clustered Data ONTAP データ保護ガイド』を参照してください。
次の表に、RAIDのみを使用する場合と、RAIDとSyncMirrorを併用する場合の違いを示します。
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 115
表 1 : RAID-DPとSyncMirror
基準
保護対象の障害
RAID-DPのみ
•
単一ドライブ障害
•
•
単一RAIDグループ内の
二重ドライブ障害
RAID-DPだけでも保護さ
れるすべての障害
•
あるプレックスで発生した
RAID-DPだけで保護され
る障害と、その他のプレッ
クスで同時に発生した障
害(数の制限なし)のあら
ゆる組み合わせ
•
ストレージ サブシステム
(HBA、ケーブル、シェル
フ)の障害(影響を受ける
プレックスが1つだけの場
合)
•
両方のプレックスにおい
て、単一のRAIDグループ
内で同時に発生した3つ以
上のドライブ障害
•
保護対象にならない障害
RAID-DPとSyncMirrorの併
用
複数ドライブ障害(単一
RAIDグループ内の障害ド
ライブが2つ以下の場合)
•
単一のRAIDグループ内で
同時に発生した3つ以上の
ドライブ障害
•
ストレージ サブシステム
(HBA、ケーブル、シェル
フ)の障害(単一のRAIDグ
ループ内で同時に3つ以上
のドライブ障害が発生した
場合)
RAIDグループごとに必要なリ
ソース
n本のデータ ドライブ+2本の
パフォーマンス コスト
ほとんどなし
ミラーリング オーバーヘッドの
低下。パフォーマンスの向上
が望めます
追加コストおよび複雑さ
なし
SyncMirrorライセンスおよび
設定
パリティ ディスク
2×(n本のデータ ドライブ+2本
のパリティ ドライブ)
116 | 物理ストレージ管理ガイド
表 2 : RAID 4とSyncMirror
基準
保護対象の障害
保護対象にならない障害
RAID 4のみ
RAID 4とSyncMirrorの併用
•
単一ディスク障害
•
複数ディスク障害(単一
RAIDグループ内の障害デ •
ィスクが1つ以下の場合)
•
単一のRAIDグループ内で
同時に発生した2つ以上の
ドライブ障害
•
ストレージ サブシステム
(HBA、ケーブル、シェル
フ)の障害(単一のRAIDグ
ループ内で同時に2つ以上
のドライブ障害が発生した
場合)
•
RAID 4だけでも保護され
るすべての障害
あるプレックスで発生した
RAID 4だけで保護される
障害と、その他のプレック
スで同時に発生した障害
(数の制限なし)のあらゆ
る組み合わせ
•
ストレージ サブシステム
(HBA、ケーブル、シェル
フ)の障害(影響を受ける
プレックスが1つだけの場
合)
•
両方のプレックスにおい
て、単一のRAIDグループ
内で同時に発生した2つ以
上のドライブ障害
RAIDグループごとに必要なリ
ソース
n本のデータ ドライブ+1本の
パフォーマンス コスト
なし
ミラーリング オーバーヘッドの
低下。パフォーマンスの向上
が望めます
追加コストおよび複雑さ
なし
SyncMirrorの構成と追加のス
トレージ要件
パリティ ドライブ
2×(n本のデータ ドライブ+1本
のパリティ ドライブ)
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 117
表 3 : RAID 0とSyncMirror
基準
RAID 0のみ
RAID 0とSyncMirrorの併用
保護対象の障害
すべての障害に対して保護な
し
RAID保護は、ストレージ アレ
イに実装されたRAIDによって
提供されます
アレイLUN、接続、またはハ
ードウェアの障害のあらゆる
組み合わせ(影響を受けるプ
レックスが1つだけの場合)
保護対象にならない障害
すべての障害に対して保護な
し
RAID保護は、ストレージ アレ
イに実装されたRAIDによって
提供されます
両方のプレックスに影響する
同時に発生した障害
RAIDグループごとに必要な
アレイLUNリソース
n個のデータ アレイLUN以外
2×n個のデータ アレイLUN
パフォーマンス コスト
なし
ミラーリング オーバーヘッドの
低下。パフォーマンスの向上
が望めます
追加コストおよび複雑さ
なし
SyncMirrorの構成と追加のス
トレージ要件
に追加のアレイLUNは不要
RAIDドライブ タイプの概要
Data ONTAPでは、RAIDのドライブ(パーティショニングされたドライブの場合は、パーティション)を
データ、ホット スペア、パリティ、dParityの4タイプに分類します。ディスクは、スペアであるかアグリ
ゲートで使用されるかによって管理方法が異なります。
RAIDのドライブ タイプは、RAIDでのドライブまたはパーティションの使用方法によって決まりま
す。Data ONTAPのディスク タイプとは異なります。
ドライブのRAIDタイプを変更することはできません。RAIDタイプは、各種のストレージ コマンドの
Position列に表示されます。
ルートデータ パーティショニングおよびストレージ プールのSSDを使用するドライブの場合は、1つ
のドライブをRAIDに対して複数の用途で使用できます。たとえば、パーティショニングされたドライ
ブのルート パーティションをスペア パーティションとして使用し、データ パーティションをパリティに
使用することができます。このため、パーティショニングされたドライブおよびストレージ プール内
のSSDについては、RAIDドライブ タイプは単にsharedと表示されます。
データ ディスク
RAIDグループ内でクライアント用に格納されたデータ(および誤動作の結果、ストレー
ジ システムの状態に関して生成されるデータ)を保持します。
118 | 物理ストレージ管理ガイド
スペア ディスク
使用可能なデータは保持しませんが、アグリゲート内のRAIDグループへの追加ディス
クとして使用できます。アグリゲートには割り当てられておらず、ホット スペア ディスクと
してシステム機能に割り当てられている、すべての正常なディスクを指します。
パリティ ディスク
RAIDグループ内の単独のディスク ドライブに障害が発生した場合にデータの再構築に
使用する、行パリティ情報を格納します。
dParityディスク
RAID DPが有効になっている場合、RAIDグループ内の2つのディスク ドライブに障害
が発生した場合にデータの再構築に使用する、対角線パリティ情報を格納します。
RAIDグループの機能
RAIDグループは、クライアント データがストライピングおよび格納される1つ以上のデータ ディスク
またはアレイLUN、および最大2つのパリティ ディスクで構成されます。構成要素は、RAIDグルー
プが含まれるアグリゲートのRAIDレベルによって決まります。
RAID-DPは2つのパリティ ディスクを使用して、RAIDグループ内の2つのディスクに障害が発生し
た場合でも、データをリカバリできるようにします。
RAID 4は1つのパリティ ディスクを使用して、RAIDグループ内の1つのディスクに障害が発生した
場合に、データをリカバリできるようにします。
RAID0はパリティ ディスクを使用しません。RAIDグループ内のディスクに障害が発生した場合
に、データをリカバリできません。
RAIDグループの命名規則
各アグリゲート内のRAIDグループには、作成された順番にrg0、rg1、rg2という名前が付けられま
す。RAIDグループの名前を独自に指定することはできません。
RAIDグループのサイジングに関する考慮事項
最適なRAIDグループ サイズを設定するには、さまざまな要素について優先度を考慮する必要が
あります。設定するアグリゲートにとって最も重要な要素を、RAIDのリカバリ速度、ドライブ障害に
よるデータ損失のリスクに対する保証、I/Oパフォーマンスの最適化、データ ストレージ スペースの
最大化の中から決定する必要があります。
大規模なRAIDグループを作成する場合、パリティ(「パリティの負荷」)に使用されるストレージと同
じ容量分、データ ストレージに使用できるペースが最大化します。 一方、大規模なRAIDグループ
でディスク障害が発生した場合、再構築の時間は増加し、パフォーマンスへの影響が長時間にお
よびます。 さらに、RAIDグループ内のディスク数が増えると、そのRAIDグループ内で複数のディ
スクに障害が発生する可能性が高くなります。
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 119
HDDまたはアレイLUN RAIDグループ
HDDまたはアレイLUNを構成するRAIDグループのサイジングを行う際は、次のガイドラインに従
う必要があります。
•
アグリゲート内のすべてのRAIDグループを同様のディスク数で構成する必要があります。
RAIDグループは完全に同じサイズにする必要はありませんが、可能な場合は、同じアグリゲ
ート内の別のRAIDグループの半分未満のRAIDグループが存在しないようにします。
•
RAIDグループ サイズの推奨範囲は12~20です。
信頼性の高いパフォーマンス ディスクを使用する場合は、RAIDグループのディスク数を必要
に応じて最大28まで増やすことができます。
•
上記の2つのガイドラインを満たすRAIDグループ サイズが複数ある場合は、より大きいサイズ
を選択します。
Flash PoolアグリゲートのSSD RAIDグループ
SSD RAIDグループ サイズは、Flash PoolアグリゲートのHDD RAIDグループのRAIDグループ サ
イズと同じである必要はありません。通常は、パリティに必要なSSDの数を最小限にするために、
Flash PoolアグリゲートのSSD RAIDグループは1つだけにします。
SSDアグリゲートのSSD RAIDグループ
SSDを構成するRAIDグループのサイジングを行う際は、次のガイドラインに従う必要があります。
•
アグリゲート内のすべてのRAIDグループを同数のディスクで構成する必要があります。
RAIDグループは完全に同じサイズにする必要はありませんが、可能な場合は、同じアグリゲ
ート内の別のRAIDグループの半分未満のRAIDグループが存在しないようにします。
•
RAID-DPの場合、RAIDグループ サイズの推奨範囲は20~28です。
関連参照情報
ストレージの制限(205ページ)
RAIDグループのサイズ変更
アグリゲートに含めるストレージの容量に応じてRAIDグループのサイズを変更できます。
タスク概要
標準のアグリゲートの場合、RAIDグループのサイズはアグリゲート単位で変更します。Flash Pool
アグリゲートの場合は、SSD RAIDグループとHDD RAIDグループのサイズを別々に変更できま
す。
RAIDグループのサイズ変更に関する注意点を次に示します。
120 | 物理ストレージ管理ガイド
•
デフォルトでは、最後に作成されたRAIDグループのディスクまたはアレイLUNの数が新しい
RAIDグループのサイズよりも少ない場合は、新たに設定したサイズになるまで、最後に作成さ
れたRAIDグループにディスクまたはアレイLUNが追加されます。
•
アグリゲート内のそれ以外の既存のRAIDグループのサイズは、明示的にディスクを追加しな
いかぎり変更されません。
•
RAIDグループのサイズを、アグリゲートの現在のRAIDグループの最大サイズよりも大きくす
ることはできません。
•
すでに作成されているRAIDグループのサイズを縮小することはできません。
•
新たに設定したサイズは、そのアグリゲート内のすべてのRAIDグループ(Flash Poolアグリゲ
ートの場合は、該当するタイプのRAIDグループ - SSDまたはHDD)に適用されます。
手順
1. 該当するコマンドを使用します。
状況
入力するコマンド
Flash Poolアグリゲートの
SSD RAIDグループの最大
サイズを変更する
storage aggregate modify -aggregate aggr_name cache-raid-group-size size
その他のRAIDグループの
最大サイズを変更する
storage aggregate modify -aggregate aggr_name maxraidsize size
例
アグリゲートn1_a4のRAIDグループの最大サイズ(ディスクまたはアレイLUNの最大数)を
20に変更するコマンドの例を次に示します。
storage aggregate modify -aggregate n1_a4 -maxraidsize 20
Flash Poolアグリゲートn1_cache_a2のSSDキャッシュRAIDグループの最大サイズを24に変
更するコマンドの例を次に示します。
storage aggregate modify -aggregate n1_cache_a2 -cache-raid-group-size
24
関連コンセプト
RAIDグループのサイジングに関する考慮事項(118ページ)
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 121
アレイLUNのData ONTAP RAIDグループに関する考慮事項
アレイLUNのData ONTAP RAIDグループを設定する際には、必要な数とサイズのアレイLUNを
Data ONTAPで使用できるようストレージ アレイ管理者と計画を立てて調整する必要があります。
アレイLUNの場合、Data ONTAPは、RAID0 RAIDグループを使用して、ストレージ アレイ上で
LUNにデータを割り当てる場所を決定します。RAID0 RAIDグループは、RAIDデータ保護には使
用されません。RAIDデータ保護はストレージ アレイによって提供されます。
注: Data ONTAP RAIDグループの概念は、ストレージ アレイ ベンダーがRAIDグループ、パリテ
ィ グループ、ディスク グループ、パリティRAIDグループなどの用語で呼んでいるものと同様で
す。
アレイLUNのData ONTAP RAIDグループを計画する場合は、次の手順に従います。
1. データの要件に最も合うアグリゲートのサイズを計画します。
2. アグリゲートのサイズに対して、必要なRAIDグループの数とサイズを計画します。
注: アレイLUNのデフォルトのRAIDグループ サイズを使用することを推奨します。デフォルト
のRAIDグループ サイズは、ほとんどの組織に適しています。デフォルトのRAIDグループ
サイズは、アレイLUNとディスクによって異なります。
3. RAIDグループで必要なLUNのサイズを計画します。
•
パフォーマンスへの影響を回避するために、特定のRAIDグループに含まれるすべてのア
レイLUNのサイズを同じにします。
•
LUNのサイズは、アグリゲート内のすべてのRAIDグループで同じにします。
4. ストレージ アレイ管理者に、アグリゲートで必要なサイズと数のLUNを作成するよう依頼しま
す。
パフォーマンス向上のために、ストレージ アレイのベンダーから提供されるドキュメントの説明
に従ってLUNを最適化してください。
5. アグリゲート内のすべてのRAIDグループを同時に作成します。
注: 同じData ONTAP RAIDグループ内に、特性の異なるストレージ アレイのアレイLUNを混
在させないでください。
注: 既存のアグリゲートに新しいRAIDグループを作成する場合は、新しいRAIDグループの
サイズがアグリゲート内の他のRAIDグループと同じになるようにし、アレイLUNがアグリゲ
ート内の他のRAIDグループのLUNと同じサイズになるようにしてください。
122 | 物理ストレージ管理ガイド
ホット スペア ディスクに関するData ONTAPの動作
ホット スペア ディスクは、ストレージ システムに割り当てられるディスクですが、RAIDグループで
は使用されません。データは格納されていませんが、いつでも使用できる状態になっています。
RAIDグループ内でディスク障害が発生した場合、Data ONTAPはホット スペア ディスクを自動的
にRAIDグループに割り当てて、障害ディスクを置き換えます。
最低限必要なホット スペアの数
十分なスペアを用意しておかないと、ディスクで障害が発生したときにスペアを利用できず、RAID
グループがデグレード モードになる危険が高まります。また、コントローラが停止した場合にテクニ
カル サポートに重要な情報(コア ファイル)を提供するためのスペア ディスクも必要です。
MSATAディスクまたはマルチディスク キャリアのディスクの場合、安定した状態では4つのホット
スペアを用意し、MSATAホット スペアの数が2つを下回ることがないようにする必要があります。
SSDで構成されるRAIDグループの場合は、少なくとも1つのスペア ディスクを用意しておく必要が
あります。
それ以外のData ONTAPのディスク タイプについては、ストレージ システムに設置されているディ
スクの種類ごとに、少なくとも1つの一致するホット スペアまたは適切なホット スペアを用意しておく
必要があります。すべてのディスクに対して2つのホット スペアを用意しておくと、ディスク障害に対
する最良の保護を実現できます。2つ以上のホットスペアを用意すると、次のような利点がありま
す。
•
データ ディスクのホット スペアが2つ以上あれば、必要に応じてデータ ディスクに対して
Maintenance Centerのテストを実施できます。
Data ONTAPでは、Maintenance Centerを使用して疑いのあるディスクをテストし、問題のあるデ
ィスクをオフラインにします。
•
ホット スペアが2つあれば、1つのディスクに障害が発生し、そのディスクを交換する前に別の
ディスクに障害が発生しても、スペアを使用できます。
1つのスペア ディスクを複数のRAIDグループのホット スペアとして使用することができます。しか
し、これらのRAIDグループのいずれかのディスクで障害が発生すると、スペアを交換するまでの
間にさらにディスクに障害が発生した場合や、コア ファイル用に使用できるスペアがありません。
そのため、2つ以上のスペアを用意することを推奨します。
関連コンセプト
マルチディスク キャリアのディスクのスペアに関する要件(30ページ)
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 123
ホット スペアとして使用可能なディスク
ディスクを特定のデータ ディスクのホット スペアとして使用するには、特定の基準を満たす必要が
あります。
別のディスクのホット スペアとして使用するディスクは、次の基準を満たす必要があります。
•
交換するディスクと完全に一致するか、代替として適切なディスクであること
•
SyncMirrorを使用している場合は、交換するディスクと同じプール内にあること
•
交換するディスクと同じシステムによって所有されていること
一致スペアとは
一致ホット スペアは、指定されたデータ ディスクの複数の特徴に完全に一致するスペアです。一
致スペアとは何か、Data ONTAPがどのようにスペアを選択するのかについて理解しておくと、運
用環境でのスペアの配置を最適化することができます。
一致スペアとは、次のすべての点において、データ ディスクとまったく同じディスクを指します。
•
Data ONTAPの実質的ディスク タイプ
実質的ディスク タイプはraid.mix.hdd.performanceオプションおよび
raid.mix.hdd.capacityオプションの値によって変わることがあり、それによってどのディス
ク タイプが同等と判断されるかが変わります。
•
サイズ
•
速度(rpm)
•
チェックサム方式(BCSまたはAZCS)
関連コンセプト
Data ONTAPで使用されるディスク タイプ名(10ページ)
適切なホット スペアとは
ディスクに障害が発生し、障害ディスクと完全に一致するホット スペア ディスクを使用できない場
合、Data ONTAPは使用可能な最良のスペアを使用します。一致するスペアがない場合にData
ONTAPでどのようにして適切なスペアが選択されるかを理解すると、スペアの割り当てを環境に
合わせて最適化できます。
Data ONTAPでは、障害ディスクと一致しないホット スペアを、次の基準に基づいて選択します。
•
同じサイズのホット スペアを利用できない場合、適切なサイズよりもサイズが大きなスペア ディ
スクがあればそれを使用します。
交換ディスクのサイズは、交換対象のディスクのサイズに合わせて縮小されます。それを超え
る容量は使用できません。
124 | 物理ストレージ管理ガイド
•
同じ速度のホット スペアを利用できない場合、異なる速度のスペアを使用します。
同一のアグリゲート内で異なる速度のドライブを使用することは、最適なソリューションではあり
ません。低速なディスクに交換すると、パフォーマンスが低下する可能性があり、高速なディス
クに交換すると、コスト効率が悪くなります。
•
障害が発生したディスクがミラー アグリゲートの一部で、該当するプールに適切なホット スペア
がない場合、もう一方のプールに割り当てられたスペアを使用します。
該当するプールではないドライブを使用すると、SyncMirrorの構成で障害の切り分けを使用で
きなくなるため、最適な方法ではありません。
ディスク タイプまたはチェックサム方式が同じスペアがない場合、障害が発生したディスクが含ま
れるRAIDグループはデグレード モードになります。Data ONTAPでは、RAIDグループ内で複数の
実質的ディスク タイプまたはチェックサム方式を組み合わせることはできません。
関連コンセプト
Data ONTAPで使用されるディスク タイプ名(10ページ)
デグレード モードについて
あるディスクに障害が発生した場合、Data ONTAPはデータの提供を続行しますが、RAIDパリティ
を使用して障害ディスクのデータを再構築する必要があります。このような状況で影響を受ける
RAIDグループは、デグレード モードにあると言います。1つ以上のRAIDグループがデグレード モ
ードにあると、そのストレージ システムのパフォーマンスは低下します。
RAIDグループがデグレード モードになるのは、次の場合です。
•
RAID 4グループの単一ディスク障害
障害ディスクがスペアに再構築されると、RAIDグループは通常モードに戻ります。
•
RAID-DPグループの1つまたは2つのディスク障害
RAID-DPグループで2つのディスクに障害が発生した場合、RAIDグループはダブルデグレード
モードになります。
•
Data ONTAPによってディスクの1つがオフラインにされた場合
オフラインのディスクが再びオンラインになると、RAIDグループは通常モードに戻ります。
注: ダブルデグレード モードにあるRAID-DPグループまたはデグレード モードにあるRAID 4グ
ループで別のディスクに障害が発生した場合は、データが失われる可能性があります(データが
ミラーされていない場合)。このため、適切なホット スペアを利用可能にしておくことで、RAIDグ
ループがデグレード モードになる時間を常に最小限にしてください。
関連コンセプト
利用可能なホット スペアがない場合のData ONTAPによる障害ディスクの処理(126ページ)
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 125
スペア不足に対する警告を使用したスペア ドライブの管理
Data ONTAPでは、デフォルトで、ストレージ システム内の各ドライブの属性に一致するホット スペ
ア ドライブが1本もない場合、警告がコンソールとログに出力されます。システムがベストプラクティ
スに準拠するようにこれらの警告メッセージのしきい値を変更できます。
すべてのドライブについて、常時2つのホット スペアを確保(ベストプラクティスに準拠)するには、
min_spare_count RAIDオプションを2に設定します。
min_spare_count RAIDオプションを0に設定すると、スペア不足に対する警告は無効になりま
す。この方法は、ホット スペアにあてる十分なドライブがない場合(たとえば、ストレージ システム
が外部ディスク シェルフをサポートしていない場合)に検討してください。警告を無効にできるの
は、次の要件が満たされている場合だけです。
•
システムのドライブ数が16本以下である。
•
RAID 4を使用するRAIDグループがない。
注: raid.min_spare_countオプションが0に設定されている間は、RAID 4保護を使用する
アグリゲートを作成することはできません。このオプションを0に設定したあとに上記の要件
のいずれかが満たされなくなると、オプションは自動的に1に再設定されます。
ホット スペアを使用したData ONTAPによる障害ディスクの処理
利用可能な一致するホット スペアを使用することで、Data ONTAPでは、データ サービスを中断す
ることなく、消失したデータをRAIDを利用して障害ディスクからホット スペア ディスク上に再構築で
きます。
ディスク障害の発生時に、一致するスペア、または適切なスペアが利用可能な場合には、Data
ONTAPは次の処理を実行します。
•
障害ディスクをホット スペア ディスクと交換します。
RAID-DPが有効で、二重ディスク障害がRAIDグループで発生した場合、Data ONTAPは各障
害ディスクを別々のスペア ディスクと交換します。
•
バックグラウンドで、消失したデータを1つ以上のホット スペア ディスク上に再構築します。
注: 再構築中、システムはデグレード モードになり、ファイル サービスの速度が低下する可
能性があります。
•
/etc/messagesファイルにアクティビティを記録します。
•
AutoSupportメッセージを送信します。
注意: 障害ディスクはできるだけ早く新しいホット スペア ディスクと交換して、ストレージ システム
内で常にホット スペア ディスクが使用できるようにしてください。
126 | 物理ストレージ管理ガイド
注: 同じサイズのスペア ディスクを利用できない場合、Data ONTAPはひと回り大きなサイズの
ディスクを選択し、交換前のディスク サイズと一致するように、交換後のディスク容量を制限しま
す。
関連コンセプト
利用可能なホット スペアがない場合のData ONTAPによる障害ディスクの処理(126ページ)
利用可能なホット スペアがない場合のData ONTAPによる障害ディ
スクの処理
障害ディスクに対して適切なホット スペアがない場合、Data ONTAPは障害の発生したRAIDグル
ープを無期限でデグレード モードにします。ストレージ システムは、指定した時間が経過すると自
動的にシャットダウンします。
RAIDグループ内の最大数のディスク(RAID-DPの場合は2本、RAID 4の場合は1本)で障害が発
生した場合、raid.timeoutオプションで指定された時間が経過するとストレージ システムは自動
的にシャットダウンします。デフォルトのタイムアウト値は24時間です。
Data ONTAPでは、管理者が状況を把握できるよう、ディスク障害の発生時には必ずAutoSupport
メッセージが送信されます。さらに、障害の発生後は、1時間に1回、/etc/messageファイルに警
告メッセージが記録されます。
注意: ディスク障害が発生し、利用可能なホット スペア ディスクがない場合は、テクニカル サポ
ートにご連絡ください。
関連コンセプト
ホット スペアを使用したData ONTAPによる障害ディスクの処理(125ページ)
デグレード モードについて(124ページ)
RAIDのタイムアウト オプションの変更に関する考慮事項
raid.timeoutオプションは、RAIDグループがデグレード モードになったり、NVRAMバッテリの
不具合や電源喪失が発生したりした場合に、ストレージ システムの実行を停止するまでの時間を
制御するオプションです。このオプションの値は変更が可能ですが、変更した場合の影響について
理解しておく必要があります。
システムのシャットダウンは、データが失われないようにするための措置です。これが発生するの
は、すでにデグレード モードで動作しているRAIDグループでさらにディスク障害が発生した場合
と、スタンドアロンのシステムで重大なエラーが発生したためにNVRAMなしでシャットダウンしなけ
ればならない場合です。このような状況でシステムの動作時間を延ばすには、このオプションの値
を大きくします(デフォルト値は24)。このオプションを0に設定することでシャットダウンを無効にす
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 127
ることもできますが、それらのいずれかまたは両方の状況でシステムが動作する時間が長くなる
ほど、データが失われる可能性が高まることに注意してください。
RAIDレベル ディスク スクラビングによるデータの整合性の検証
RAIDレベル スクラビングでは、アグリゲート(あるいは特定のアグリゲート、プレックス、または
RAIDグループ)で使用されているすべてのディスクのディスク ブロックをチェックして、メディア エ
ラーやパリティの整合性を確認します。Data ONTAPは、メディア エラーや不整合を検出した場合、
RAIDを使用して他のディスクからデータを再構築し、そのデータを再書き込みします。
RAIDレベル スクラビングは、RAIDグループを通常の状態に保ったままメディアやチェックサムの
エラーを検出して修正するため、データ可用性の向上に役立ちます(RAID-DPでは、RAIDグルー
プで単一ディスク障害が発生している場合にもRAIDレベル スクラビングを実行可能)。
RAIDレベル スクラビングは、スケジュール設定または手動で実行できます。
自動RAIDレベル スクラビングのスケジュールの変更
デフォルトのRAIDレベル スクラビングのスケジュールで設定されているよりも頻繁にデータをスク
ラビングする場合は、スケジュールされたスクラビングの開始時刻や実行時間を変更できます。
タスク概要
デフォルトのRAIDレベル スクラビングのスケジュールでは、毎日午前1時にスクラビングを開始す
るように設定されています。スクラビングは日曜日には12時間実行され、それ以外の曜日には4時
間実行されます。
手順
1. RAIDレベル スクラビングのスケジュールを更新します。
storage raid-options modify -node nodename -name raid.scrub.schedule value duration[h|m]@weekday@start_time,[duration[h|
m]@weekday@start_time,...]
•
durationは時間単位または分単位で指定されます。
•
weekdayは曜日です。mon、tue、wed、thu、fri、sat、sunのいずれかを指定します。
•
start_timeはスクラビングを開始する時刻です。24時間形式を使用します。
現在の自動RAIDレベル スクラビングのスケジュールが、指定したスケジュールに置き換えら
れます。
2. 新しいスケジュールを確認します。
storage raid-options show raid.scrub.schedule
128 | 物理ストレージ管理ガイド
例
ノードsys1-aでのRAIDレベル スクラビングが月曜日に実行されないようにして、日曜日の実
行時間を8時間に増やすコマンドの例を次に示します。
storage raid-options modify -node sys1-a -name raid.scrub.schedule value 4h@tue@1,4h@wed@1,4h@thu@1,4h@fri@1,8h@sat@1,12h@sun@1
手動RAIDレベル スクラビングの実行方法
storage aggregate scrubコマンドを使用すると、個々のRAIDグループ、プレックス、アグリゲ
ート、またはすべてのアグリゲートに対して、RAIDレベル スクラビングを手動で実行できます。手
動RAIDレベル スクラビングは、停止、一時停止、および再開することもできます。
通常の状態にないRAIDグループ(たとえば、再構築中またはデグレード モードのグループ)で
RAIDレベル スクラビングを実行しようとすると、スクラビングはエラーを返し、そのRAIDグループ
をチェックしません。RAIDレベル スクラビングは、1つのディスクに障害があるRAID-DPグループ
で実行できます。
RAID処理のシステム パフォーマンスへの影響の制御
RAID処理がシステム パフォーマンスに与える影響は、RAIDの処理速度を遅くすることによって
軽減できます。
RAIDオプションを使用すると、次のRAID処理の速度を制御できます。
•
RAIDデータの再構築
•
ディスク スクラビング
•
プレックスの再同期化
•
同期ミラー検証
これらの各処理に対して選択した速度により、ストレージ システムの全体的なパフォーマンスが影
響を受ける可能性があります。ただし、処理がすでに最大速度で実行されていて、3つのシステム
リソース(CPU、ディスク、またはディスクとコントローラの間の接続帯域幅)のいずれかが最大限
に利用されている場合は、その処理速度を変更しても、処理またはストレージ システムのパフォー
マンスに変化はありません。
処理がまだ実行されていない場合は、ストレージ システムのネットワーク処理への影響を最小限
にする速度、またはストレージ システムのネットワーク処理に大きく影響する速度のどちらかを設
定できます。各処理に対し、次のガイドラインに従って速度を設定してください。
•
クライアントからストレージ システムへのアクセスに対するパフォーマンス上の影響を小さくす
るには、特定のRAIDオプションをmediumからlowに変更します。その場合、処理速度も低下し
ます。
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 129
•
処理を高速化するには、RAIDオプションをmediumからhighに変更します。その場合、クライア
ント アクセスに対するストレージ システムのパフォーマンスが低下することがあります。
RAIDデータ再構築のパフォーマンスへの影響の制御
RAIDデータの再構築はCPUリソースを消費するため、データの再構築速度の設定を上げると、ス
トレージ システムのネットワークおよびディスクの動作速度が低下する場合があります。データの
再構築の速度は、raid.reconstruc.perf_impactオプションを使用して制御できます。
タスク概要
RAIDデータの再構築とプレックスの再同期化が同時に実行される場合、2つの処理によるリソー
スの総使用量は、両処理に設定されているパフォーマンスへの影響の大きいほうに基づいて制限
されます。たとえば、raid.resync.perf_impactがmediumに設定され、
raid.reconstruct.perf_impactがlowに設定されている場合、両方の処理で利用されるリソ
ースの影響は中程度(medium)になります。
このオプションの設定により、高速RAIDリカバリの速度も制御されます。
手順
1. 次のコマンドを入力します。
storage raid-options modify -node node_name raid.reconstruct.perf_impact
impact
impactにはhigh、medium、またはlowを指定できます。
highを指定すると、ストレージ システムでは、使用可能なシステム リソースのほとんどが
RAIDデータの再構築に使用されます。この設定は、ストレージ システムのパフォーマンスに大
きく影響する可能性がありますが、再構築にかかる時間は短縮され、RAIDグループがデグレ
ード モードになる時間が短くなります。
lowを指定すると、処理に使用されるシステム リソースは非常に少なくなります。この設定は、
ストレージ システムのパフォーマンスにはあまり影響しませんが、再構築の完了により多くの
時間がかかり、ストレージ システムがデグレード モードで実行される時間が長くなります。
デフォルトの設定はmediumです。
RAIDレベル スクラビングのパフォーマンスへの影響の制御
Data ONTAPでRAIDレベル スクラビングを実行すると、ストレージ システムの全ディスクのディス
ク ブロックがチェックされ、メディア エラーやパリティの整合性が確認されます。この処理によるシ
130 | 物理ストレージ管理ガイド
ステム パフォーマンスへの影響は、raid.verify.perf_impactオプションを使用して制御でき
ます。
タスク概要
RAIDレベル スクラビングとミラーリングの検証が同時に実行される場合、2つの処理によるリソー
スの総使用量は、両処理に設定されているパフォーマンスへの影響の大きい方に基づいて制限さ
れます。たとえば、raid.verify.perf_impactがmediumに設定され、
raid.scrub.perf_impactがlowに設定されている場合、両方の処理で利用されるリソースの影
響は中程度(medium)になります。
1日のうちに、ストレージ システムの負荷が低い時間帯がある場合は、自動RAIDレベル スクラビ
ングの開始時刻または実行時間を変更して、パフォーマンスへの影響を制限することもできます。
手順
1. 次のコマンドを入力します。
storage raid-options modify -node node_name raid.scrub.perf_impact
impact
impactにはhigh、medium、またはlowを指定できます。
highを指定すると、使用可能なシステム リソースのほとんどがスクラビングに使用されます。
この設定は、ストレージ システムのパフォーマンスに大きく影響する可能性がありますが、スク
ラビングの時間は短縮されます。
lowを指定すると、処理に使用されるシステム リソースは非常に少なくなります。この設定は、
ストレージ システムのパフォーマンスにはあまり影響しませんが、スクラビングにかかる時間は
長くなります。
デフォルトの設定はlowです。
プレックスの再同期化のパフォーマンスへの影響の制御
プレックスの再同期化は、ミラーされたアグリゲートの両方のプレックスを同一に維持する処理で
す。プレックスの再同期化によるパフォーマンスへの影響は、raid.resync.perf_impactオプシ
ョンを使用して制御できます。
タスク概要
プレックスの再同期化とRAIDデータの再構築が同時に実行される場合、2つの処理によるリソー
スの総使用量は、両処理に設定されているパフォーマンスへの影響の大きい方に基づいて制限さ
れます。たとえば、raid.resync.perf_impactがmediumに、
raid.reconstruct.perf_impactがlowに設定されている場合、両方の処理で利用されるリソ
ースの影響は中程度(medium)になります。
このオプションの値は、HA構成の両方のノードで同じ値に設定してください。
Data ONTAPでのRAIDを使用したデータとデータ可用性の保護 | 131
手順
1. 次のコマンドを入力します。
storage raid-options modify -node node_name raid.resync.perf_impact
impact
impactにはhigh、medium、またはlowを指定できます。
highを指定すると、ストレージ システムでは、使用可能なシステム リソースのほとんどがプレ
ックスの再同期化に使用されます。この設定は、ストレージ システムのパフォーマンスに大きく
影響する可能性がありますが、再同期化にかかる時間は短縮されます。
lowを指定すると、処理に使用されるシステム リソースは非常に少なくなります。この設定は、
ストレージ システムのパフォーマンスにはあまり影響しませんが、再同期化にかかる時間は長
くなります。
デフォルトの設定はmediumです。
ミラー検証のパフォーマンスへの影響の制御
ミラー検証は、同期ミラーされたアグリゲートの2つのプレックスが同一であることを確認するため
に行います。ミラー検証の速度、およびシステム リソースへの影響は、
raid.verify.perf_impactオプションを使用して制御できます。
タスク概要
ミラー検証とRAIDレベル スクラビングが同時に実行される場合、2つの処理によるリソースの総使
用量は、両処理に設定されているパフォーマンスへの影響の大きい方に基づいて制限されます。
たとえば、raid.verify.perf_impactがmediumに、raid.scrub.perf_impactがlowに設定
されている場合、両方の処理で利用されるリソースの影響は中程度(medium)になります。
同期ミラーリングの詳細については、『clustered Data ONTAP データ保護:テープ バックアップおよ
びリカバリ ガイド』を参照してください。
手順
1. 次のコマンドを入力します。
storage raid-options modify -node node_name raid.verify.perf_impact
impact
impactにはhigh、medium、またはlowを指定できます。
highを指定すると、使用可能なシステム リソースのほとんどがミラー検証に使用されます。こ
の設定は、ストレージ システムのパフォーマンスに大きく影響する可能性がありますが、ミラー
検証にかかる時間は短縮されます。
lowを指定すると、処理に使用されるシステム リソースは非常に少なくなります。この設定は、
ストレージ システムのパフォーマンスにはあまり影響しませんが、ミラー検証にかかる時間は
長くなります。
132 | 物理ストレージ管理ガイド
デフォルトの設定はlowです。
133
アグリゲートとは
セキュリティ、バックアップ、パフォーマンス、およびデータ共有に関するさまざまなユーザ要求をサ
ポートするために、ストレージ システムの物理的なデータ ストレージ リソースを1つ以上のアグリゲ
ートにグループ化できます。アグリゲートは、適切なレベルのパフォーマンスと冗長性を提供するよ
うに設定できます。
各アグリゲートには、独自のRAID構成、プレックス構造、および割り当てられた一連のドライブま
たはアレイLUNがあります。アグリゲートは、その構成に応じて、関連付けられたFlexVolボリュー
ムまたはInfinite Volumeボリュームにストレージを提供します。
アグリゲートには次のような特徴があります。
•
ドライブまたはアレイLUNで構成できます。
•
ミラーリングすることも、しないことも可能です。
•
ドライブで構成される場合、単一層(HDDのみ、またはSSDのみで構成)のアグリゲートと、
HDD RAIDグループとSSDキャッシュの両方を含むFlash Poolアグリゲートがあります。
クラスタ管理者は1つのStorage Virtual Machine(SVM)に1つ以上のアグリゲートを割り当てること
ができます。その場合、そのSVMで使用できるのは割り当てたアグリゲートのボリュームのみで
す。
関連情報
ネットアップ テクニカル レポート3437:『Storage Subsystem Resiliency Guide』
ミラーされていないアグリゲートの機能
SyncMirrorを使用している場合を除いて、アグリゲートがミラーされることはありません。ミラーされ
ていないアグリゲートは、プレックス(データ コピー)を1つだけ含み、プレックスは、そのアグリゲー
トに属する全RAIDグループで構成されます。
次の図に、1つのプレックスを含む、ディスクで構成されたミラーされていないアグリゲートを示しま
す。このアグリゲートには4つのRAIDグループ(rg0、rg1、rg2、rg3)があります。各RAIDグループ
には6本のデータ ディスクがあり、パリティ ディスクとdparity(ダブルパリティ)ディスクが1本ずつ含
まれます。アグリゲートで使用されるすべてのディスクは同じプール(pool0)のものです。
134 | 物理ストレージ管理ガイド
アグリゲート
plex0(pool0)
rg0
rg1
rg2
rg3
pool0
凡例
スペア ディスク
データ ディスク
パリティ ディスク
dParityディスク
RAIDグループ
次の図に、1つのプレックスを含む、アレイLUNで構成されたミラーされていないアグリゲートを示し
ます。このアグリゲートには2つのRAIDグループ(rg0とrg1)があります。アグリゲートで使用される
すべてのアレイLUNは同じプール(pool0)のものです。
アグリゲート
plex0(pool0)
rg0
rg1
凡例
アグリゲート内のアレイLUN
Data ONTAP RAIDグループ
アグリゲートとは | 135
ミラーされたアグリゲートの機能
ミラーされたアグリゲートには、2つのプレックス(データ コピー)が含まれます。これらのプレックス
は、SyncMirror機能を使用したデータ複製により、冗長性を提供します。
ミラーされたアグリゲートが作成されると(または既存のミラーされていないアグリゲートに2つ目の
プレックスが追加されると)、Data ONTAPは元のプレックス(plex0)のデータを新しいプレックス
(plex1)に複製します。プレックスは物理的に分離されていて(各プレックスには独自のRAIDグル
ープおよび独自のプールがあり)、同時に更新されます。これにより、アグリゲートのRAIDレベル
で保護されるよりも多くのディスクで障害が発生した場合や接続が解除された場合に、影響を受け
ないプレックスでデータ サービスを継続しながら障害の原因を修正できるため、データ損失を防止
できます。問題のあるプレックスが修正されたら、2つのプレックスが再同期化され、ミラー関係が
再確立されます。
注: 2つのプレックスの再同期化にかかる時間は、アグリゲートのサイズ、システムの負荷、変更
されたデータ量などの多くの変数によって異なります。
システム上のディスクとアレイLUNは2つのプール(pool0とpool1)に分割されます。plex0はpool0
からストレージを取得し、plex1はpool1からストレージを取得します。
次の図は、SyncMirrorを有効にして実装したディスクで構成されるアグリゲートを示しています。ア
グリゲートのplex1用に2つ目のプレックスが作成されています。plex1のデータはplex0のデータの
複製であり、RAIDグループも同じです。32本のスペア ディスクがpool0またはpool1に割り当てられ
ます(各プールに16本)。
アグリゲート
plex0(pool0)
rg0
rg1
rg2
rg3
plex1(pool1)
rg0
rg1
rg2
rg3
pool0
凡例
pool1
スペア ディスク
データ ディスク
パリティ ディスク
dParityディスク
RAIDグループ
136 | 物理ストレージ管理ガイド
次の図は、SyncMirrorを有効にして実装したアレイLUNで構成されるアグリゲートを示していま
す。アグリゲートのplex1用に2つ目のプレックスが作成されています。plex1はplex0の複製であり、
RAIDグループも同じです。
アグリゲート
plex0(pool0)
rg0
rg1
plex1(pool1)
rg0
rg1
アグリゲート内のアレイLUN
Data ONTAP RAIDグループ
Flash Poolアグリゲートとは
Flash Poolアグリゲートを使用すると、SSDとHDD(パフォーマンスまたはキャパシティ)を組み合わ
せて、SSDアグリゲートよりも高性能なアグリゲートを低コストで提供できます。
SSDは、Flash Poolアグリゲートでプロビジョニングされたデータ ボリュームのアクティブなデータセ
ット用の高性能なキャッシュです。これにより、ランダム リード処理と繰り返し実行されるランダム
ライト処理がオフロードされ、ディスクI/Oにバインドされたデータ アクセス処理の応答時間と全体
的なスループットが向上します (大半がシーケンシャル ワークロードの場合、パフォーマンスが大
幅に向上することはありません)。
関連タスク
物理SSDを使用するFlash Poolアグリゲートの作成(180ページ)
Flash Poolアグリゲートの機能
Flash Poolアグリゲートは、一般的に、標準のアグリゲートと同じ方法で使用、管理します。ただし、
SSDグループおよびHDD RAIDグループの相互作用と、システムのその他の要素に及ぼす影響
を理解しておく必要があります。
SSD RAIDグループはSSDキャッシュとも呼ばれ、物理SSDまたはSSDストレージ グループからの
割り当て単位で構成できます(ただし両方で構成することはできません)。
SSDは、最大アグリゲート サイズの算出に使用されるアグリゲート サイズには算入されません。た
とえば、最大アグリゲート サイズに達しているアグリゲートにもSSD RAIDグループを追加できま
す。ただし、ノード全体またはHAペア全体のドライブ数の制限にはカウントされます。
アグリゲートとは | 137
Flash PoolアグリゲートのHDD RAIDグループの動作は標準のアグリゲートのHDD RAIDグルー
プと同じで、異なるディスク タイプ、サイズ、速度、チェックサムを混在させる場合のルールも同じで
す。たとえば、パフォーマンス ディスクとデータ ディスクをFlash PoolアグリゲートのHDD RAIDグ
ループに混在させることはできません。
チェックサム方式、RAIDタイプ、およびRAIDグループ サイズの値は、SSDのキャッシュRAIDグル
ープ用とHDD RAIDグループ用に別々に設定できます。Flash PoolアグリゲートがSSDキャッシュ
にSSDストレージ プールを使用する場合、キャッシュRAIDタイプは最初のSSD RAIDグループの
追加時にのみ変更可能であり、そのSSD RAIDグループのサイズは、ストレージ プール内のSSD
の数によって決まります。
SSDキャッシュにはプラットフォーム依存の最大サイズがあります。
関連コンセプト
Flash Poolアグリゲート内に複数のドライブ タイプを混在させる場合のルール(155ページ)
タイプの異なるHDDをアグリゲート内に混在させる場合のルール(154ページ)
使用可能なFlash Poolキャッシュ容量の計算方法(140ページ)
関連タスク
Flash Poolアグリゲート内のRAIDグループのRAIDタイプの変更(189ページ)
関連情報
NetApp Hardware Universe
Flash Poolアグリゲートを使用するための要件
ストレージ アーキテクチャでの使用を計画する前に、Flash Poolテクノロジのいくつかの構成要件を
把握しておく必要があります。
Flash Poolアグリゲートは、次の構成では使用できません。
Flash Poolアグリゲートでは、次の種類のストレージ オブジェクトを使用できません。
•
ルートデータのパーティショニング用にパーティショニングされるSSD
Flash PoolアグリゲートのHDD RAIDグループには、パーティショニングされたHDDを使用でき
ます。
•
アレイ LUN
Flash PoolアグリゲートとFlash Cacheモジュール(WAFL外部キャッシュ)は同じシステムで使用でき
ます。ただし、Flash Poolアグリゲートに格納されているデータはFlash Cacheモジュールにキャッシ
ュされません。Flash Cacheは、HDDだけで構成されるアグリゲートに格納されているデータ用に予
約されています。
138 | 物理ストレージ管理ガイド
Flash Poolアグリゲートに関連付けられているボリュームには、データ圧縮を使用できます。ただ
し、圧縮されたブロックは、読み取り処理のためにのみFlash Poolキャッシュにキャッシュされます。
書き込み処理用にはキャッシュされません。
Flash Poolキャッシュには、SnapMirrorまたはSnapVaultデスティネーションなどの読み取り専用ボリ
ュームのデータがキャッシュされます。
Flash Poolアグリゲートはミラーされたアグリゲートから作成できますが、SSD構成を両方のプレッ
クスで同じにする必要があります。
7.1以前のData ONTAPで作成されたアグリゲートを使用してFlash Poolアグリゲートを作成する場
合、そのFlash Poolアグリゲートに関連付けられたボリュームでは書き込みキャッシュはサポートさ
れません。
関連情報
NetApp Hardware Universe
ネットアップ テクニカル レポート4070:『Flash Pool Design and Implementation Guide』
Flash PoolキャッシュのRAIDタイプとスペアの管理に関する考慮事項
SSDは高額であるため、コストとドライブ障害に対する保護との間で適切なバランスを取ることが特
に重要になります。SSDが使用できなくなった場合にFlash Poolアグリゲートのパフォーマンスと可
用性にどのような影響があるかを把握しておくと、必要となる適切な対処方法の決定に役立ちま
す。
SSDの障害時やSSDを使用できない場合にRAIDグループとアグリゲートが受ける影響は、HDD
の場合と同じです。 Flash Poolキャッシュで使用しているSSDが使用できなくなると、そのSSDを含
むRAIDグループがデグレード モードになり、使用できないSSDの内容をスペアSSDに複製して
RAIDグループを再構築するまでFlash Poolアグリゲートのキャッシュ パフォーマンスが低下しま
す。
HDD RAIDグループと同様に、キャッシュRAIDグループにおいて、RAIDレベルで修正可能な数
(RAID-DPで3、RAID 4で2)よりも多くのSSDの障害が発生すると、データの整合性と可用性が低
下する可能性があります。
そのため、データ可用性を最大限に確保するには、HDD RAIDグループとキャッシュの両方で
RAID-DPを使用する必要があります。 また、SSDの障害時に再構築をすぐに開始できるように、
常にスペアSSDを用意しておく必要があります。複数のFlash Poolアグリゲート間でスペアSSDを共
有できます。ただし、SSDの障害の発生後は、新しいスペアに交換するまで、そのスペアを使用す
るすべてのFlash Poolアグリゲートはスペアがない状態になります。
RAID-DPを使用してFlash Poolキャッシュにスペアを提供する方法ではコストがかかりすぎるという
場合や、RAIDグループのサイズがRAID 4 RAIDグループの最大サイズよりも大きくない場合は、
次善の策として、Flash PoolキャッシュにRAID 4を使用して(HDD RAIDグループの場合は、引き
続きRAID-DPを使用する必要があります)、スペアSSDを提供します。 特にRAIDグループのサイ
ズが小さい場合、二重のSSD障害は比較的まれであり、再構築を行うほうがスペアを調達して設
置するよりも時間がかからないため、これはスペアなしのRAID-DPを使用するよりも望ましい方法
です。
アグリゲートとは | 139
注: SSDストレージ プールを使用する場合、それらをアグリゲートに追加したあとに、キャッシュ
RAIDグループのRAIDタイプを変更することはできません。将来的にストレージ プールのサイ
ズを拡張すると予想される場合は、SSDキャッシュに使用する適切なRAIDタイプを決定する際
に、必要となる最大サイズについて検討してください。
Flash PoolアグリゲートとFlash Cacheの比較
Flash PoolテクノロジとFlash Cacheファミリー(Flash CacheとFlash Cache 2)は、どちらも高性能なキ
ャッシュを提供してストレージのパフォーマンスを向上させるモジュールです。ただし、これらの2つ
のモジュールはそれぞれ特徴が異なるため、その違いを理解したうえで選択することが重要です。
同じシステムで両方のモジュールを使用することも可能です。ただし、Flash Poolアグリゲートに関
連付けられたボリュームに格納されたデータはFlash Cacheではキャッシュされません。
基準
Flash Poolアグリゲート
Flash Cache
適用範囲
特定のアグリゲート
ノードに割り当てられたすべて
のアグリゲート
サポートされているキャッシュ
タイプ
読み取りおよび書き込み
読み取り
テイクオーバーの実行中およ
び実行後のキャッシュ データ
の利用
利用可能。計画的テイクオー
バーまたは計画外テイクオー
バーによる影響はありませ
ん。
テイクオーバーの実行中はキ
ャッシュ データを利用できま
せん。計画的テイクオーバー
のギブバック後、以前のキャッ
シュ データのうち引き続き有
効なデータは自動的に再度キ
ャッシュされます。
ストレージ コントローラにPCIe
スロットが必要か
×
○
圧縮されたブロックがキャッシ
ュされるか
○
×
アレイLUNでサポートされる
か
×
○
ストレージ暗号化でサポートさ
れるか
○
はい。キャッシュ内のデータは
暗号化されません。
Flash Cacheの詳細については、『clustered Data ONTAP システム アドミニストレーション ガイド(ク
ラスタ管理)』を参照してください。
140 | 物理ストレージ管理ガイド
使用可能なFlash Poolキャッシュ容量の計算方法
Flash Poolキャッシュ容量は、プラットフォームによって決まるノードまたはHA構成の上限を超える
ことはできません。使用可能なキャッシュ容量がわかれば、その範囲内でFlash Poolアグリゲート
に追加できるキャッシュ容量を特定することができます。
現在のFlash Poolキャッシュ容量は、(storage aggregate showコマンドで出力される)すべての
Flash Poolキャッシュの合計です。MetroCluster構成など、SyncMirrorを使用するノードの場合、一
方のプレックスのFlash Poolキャッシュだけがキャッシュ容量の対象となります。
Flash Cacheモジュールが搭載されたノードの場合、Flash Poolで利用できるキャッシュ容量は、
Flash Poolのキャッシュ容量の制限から、ノードにインストールされているFlash Cacheモジュール キ
ャッシュの合計サイズを引いた値になります (あまり一般的ではありませんが、HA構成の2つのノ
ードでFlash Cacheモジュールのサイズが異なる場合は、大きいほうのFlash Cacheモジュールのサ
イズを引いた値が使用可能なFlash Poolキャッシュ容量になります)。
HA構成のノードの場合、キャッシュ サイズ制限はHA構成全体に適用されます。また、HA構成の
合計制限サイズを超えないかぎり、2つのノード間で任意にスプリットできます。
MetroCluster構成のノードの場合、キャッシュ サイズ制限は構成全体に適用されますが、HA構成
の場合のようにノード間で任意にスプリットすることはできません。つまり、MetroCluster構成の各ノ
ードの制限は、キャッシュ サイズ制限の合計の4分の1になります。Flash Cacheがいずれかのノー
ドに存在する場合は、ノード単位の制限を計算する前に、最も大きいFlash Cacheモジュールのサ
イズを全体の制限から差し引く必要があります。
Flash Cacheモジュールを搭載したシステムの計算
HA構成を構成している2つのストレージ コントローラの最大キャッシュ容量が12TBで、各ノ
ードに2TBのFlash Cacheがインストールされている場合、このHAペアに対するFlash Poolア
グリゲートの最大キャッシュ容量は、12TBから2TBを引いた10TBになります。
Flash Cacheモジュールのサイズが異なる場合の計算
HA構成を構成している2つのストレージ コントローラの最大キャッシュ容量が12TBで、一方
のノードには2TB、もう一方のノードには3TBのFlash Cacheがインストールされている場合、
このHAペアに対するFlash Poolの最大キャッシュ容量は、12TBから3TBを引いた9TBになり
ます。
MetroCluster構成の場合の計算
MetroCluster構成を構成している4つのストレージ コントローラの最大キャッシュ容量が12TB
の場合、各ノードに対するFlash Poolの最大キャッシュ容量は、12TBを4で割った3TBになり
ます。
アグリゲートとは | 141
Flash Cacheモジュールを搭載したMetroCluster構成の場合の計算
MetroClusterを構成している4つのストレージ コントローラの最大キャッシュ容量が12TBで、
一方のノードに2TBのFlash Cacheがインストールされている場合、各ノードに対するFlash
Poolの最大キャッシュ容量は、12TBから2TBを引いた値を4で割った2.5TBになります。
関連コンセプト
Flash Pool SSDパーティショニングでFlash Poolアグリゲートのキャッシュ割り当ての柔軟性を拡
張する方法(144ページ)
Flash Poolアグリゲートの機能(136ページ)
関連参照情報
アグリゲートの管理用コマンド(204ページ)
関連情報
NetApp Hardware Universe
Flash Poolアグリゲート内のボリュームでのキャッシング ポリシーの使用
volume createコマンドで-caching-policyパラメータを使用して、Flash Poolアグリゲートにあ
るボリュームのキャッシング ポリシーを変更できます。Flash Poolアグリゲート上にボリュームを作
成すると、デフォルトでは、autoキャッシング ポリシーがそのボリュームに割り当てられます。
ほとんどの場合は、デフォルトのキャッシング ポリシーが推奨されます。ボリュームのキャッシング
ポリシーを変更する必要があるのは、別のポリシーを使用したほうがパフォーマンスが向上する場
合のみです。
ボリュームのキャッシング ポリシーは、Flash Poolアグリゲート上にボリュームを作成する場合に設
定できます。volume modifyコマンドを使用すると、キャッシング ポリシーを変更できます。Flash
Poolアグリゲートと非Flash Poolアグリゲート間でキャッシング ポリシーを移動することもできます。
次の表は、キャッシング ポリシー、その説明、およびボリュームの使用状況に基づいて設定できる
読み取りキャッシング ポリシーと書き込みキャッシング ポリシーの組み合わせの一覧です。
142 | 物理ストレージ管理ガイド
ポリシー名
説明
読み取りキャ 書き込みキ
ッシング ポリ ャッシング
ポリシー
シー
権限
auto
random_read
すべてのメタデータ ブロッ
クとランダム リードのユー
ザ データ ブロックの読み取
りキャッシュ、およびすべて
のランダム オーバーライト
のユーザ データ ブロックの
書き込みキャッシュを行い
ます。
randomwrite
admin
none
ユーザ データ ブロックまた
はメタデータ ブロックをキャ
ッシュしません。
none
none
admin
random_read
すべてのメタデータ ブロッ
クとランダム リードのユー
ザ データ ブロックを読み取
りキャッシュします。
random_read
none
advanced
noreadrandom_write
すべてのランダム オーバ
ーライトのユーザ データ ブ
ロックを書き込みキャッシュ
します。
none
randomwrite
advanced
meta
メタデータ ブロックのみを
読み取りキャッシュします。
meta
none
advanced
metarandom_write
すべてのメタデータ ブロッ
クを読み取りキャッシュし、
すべてのランダム オーバ
ーライトのユーザ データ ブ
ロックを書き込みキャッシュ
します。
meta
randomwrite
advanced
random_read_
write
すべてのメタデータ ブロッ
ク、ランダム リードのユー
ザ データ ブロック、および
ランダム ライトのユーザ デ
ータ ブロックを読み取りキ
ャッシュします。
random_read
_write
none
advanced
アグリゲートとは | 143
ポリシー名
説明
読み取りキャ 書き込みキ
ッシング ポリ ャッシング
ポリシー
シー
権限
random_read_
write-randomwrite
すべてのメタデータ ブロッ
ク、ランダム リードのユー
ザ データ ブロック、および
ランダム ライトのユーザ デ
ータ ブロックを読み取りキ
ャッシュします。ランダム オ
ーバーライトのユーザ デー
タ ブロックの書き込みキャ
ッシュも行います。
random_read
_write
advanced
randomwrite
関連タスク
Flash Poolアグリゲートでボリュームが書き込みキャッシュに対応しているかどうかの確認とその
有効化(188ページ)
関連情報
ネットアップ テクニカル レポート4070:『Flash Pool Design and Implementation Guide』
キャッシング ポリシーの変更
ボリュームのキャッシング ポリシーを変更する必要があるのは、別のポリシーを使用したほうがパ
フォーマンスが向上すると予想される場合のみです。ボリュームがFlash Poolアグリゲート上に配
置されている必要があります。
手順
1. volume modifyコマンドを使用して、ボリュームのキャッシング ポリシーを変更します。
このコマンドで使用できるパラメータについては、volume modifyのマニュアル ページを参照
してください。
例
次の例では、「vol2」という名前のボリュームのキャッシング ポリシーをnoneに変更します。
volume modify -volume vol2 -caching-policy none
144 | 物理ストレージ管理ガイド
Flash Pool SSDパーティショニングでFlash Poolアグリゲートのキ
ャッシュ割り当ての柔軟性を拡張する方法
Flash Pool SSDパーティショニングでは、複数のFlash Poolアグリゲートに割り当て可能なSSDスト
レージ プールに、SSDをグループ化することができます。これにより、より多くのアグリゲートにお
けるパリティSSDのコストを抑え、SSD割り当ての柔軟性を増し、SSDのパフォーマンスを最大限に
高めます。
ストレージ プールはHAペアに関連付けられており、HAペアのノードによって所有されるSSDで構
成できます。
SSDをストレージ プールに追加すると共有SSDとなり、4つのパーティションに分割されます。
SSDストレージ プールからのストレージは割り当て単位に分割され、各割り当て単位はストレージ
プールの合計容量の25%を表します。割り当て単位は、ストレージ プール内の各SSDから1つのパ
ーティションを含み、単一RAIDグループとしてFlash Poolキャッシュに追加されます。デフォルトで
は、HAペアに関連付けられたストレージ プールについて、2つの割り当て単位が各HAパートナー
に割り当てられますが、これらの割り当て単位は、必要に応じて、他のHAパートナーに再割り当て
することができます(割り当て単位は、アグリゲートを所有するノードによって所有されている必要
があります)。
SSDストレージ プールにはRAIDタイプはありません。割り当て単位をFlash Poolアグリゲートに追
加すると、適切な数のパーティションが、そのRAIDグループにパリティを提供するように指定され
ます。
次の図は、Flash Pool SSDパーティショニングの例を示しています。この図のSSDストレージ プー
ルは、2つのFlash Poolアグリゲートにキャッシュを提供します。
アグリゲートとは | 145
ストレージ プールSP1は5本のSSDで構成されており、さらに、いずれかのSSDの障害発生時に代
替するホット スペアSSDが1本あります。ストレージ プールの割り当て単位2つがFlash Pool FP1に
割り当てられ、2つがFlash Pool FP2に割り当てられます。FP1にはRAID4のCache RAIDがあるた
め、FP1に提供された割り当て単位には、そのパリティに指定されたパーティションが1つだけ含ま
れます。FP2にはRAID-DPのCache RAIDがあるため、FP2に提供された割り当て単位には、パリ
ティ パーティションとダブルパリティ パーティションが含まれます。
この例では、2つの割り当て単位が各Flash Poolアグリゲートに割り当てられますが、1つのFlash
Poolアグリゲートにより大きなキャッシュが必要な場合、そのFlash Poolアグリゲートに3つの割り当
て単位を割り当て、他のアグリゲートには1つだけ割り当てることができます。
関連コンセプト
Flash Poolアグリゲートとは(136ページ)
関連タスク
SSDストレージ プールを使用するFlash Poolアグリゲートの作成(182ページ)
SSDストレージ プールを使用するケースに関する考慮事項
SSDストレージ プールにはさまざまな利点がありますが、SSDストレージ プールと専用SSDのどち
らを使用するかを決定する際には、考慮すべき制限事項がいくつかあります。
SSDストレージ プールは、2つ以上のFlash Poolアグリゲートにキャッシュを提供する場合にのみ効
果を発揮します。SSDストレージ プールには次の利点があります。
146 | 物理ストレージ管理ガイド
•
Flash Poolアグリゲートで使用されるSSDのストレージ利用率の向上
SSDストレージ プールは、2つ以上のFlash PoolアグリゲートでパリティSSDを共有できるため、
パリティに必要なSSDの全体的な割合が下がります。
•
HAパートナー間でのスペアの共有
ストレージ プールはHAペアによって所有されるため、HAパートナーのいずれかに所有される
1つのスペアが、必要に応じてSSDストレージ プール全体のスペアとして機能します。
•
SSDパフォーマンスの有効利用
SSDが提供するハイパフォーマンスによって、HAペアの両方のコントローラからのアクセスが
サポートされます。
SSDストレージ プールを使用する際のこのような利点について、以下の欠点も含めて、その利用コ
ストと比較する必要があります。
•
障害の切り分けが困難
1つのSSDの損失が、そのパーティションに含まれるすべてのRAIDグループに影響します。こ
の場合、影響を受けるSSDを含むSSDストレージ プールからキャッシュが割り当てられている
すべてのFlash Poolアグリゲートで、1つ以上のRAIDグループが再構築されます。
•
パフォーマンスの分離が困難
Flash Poolキャッシュのサイジングが適切でないと、共有しているFlash Poolアグリゲート間のキ
ャッシュで競合が発生する可能性があります。このリスクは、適切なサイジングとQoS管理によ
って緩和できます。
•
管理の柔軟性の低下
ストレージをストレージ プールに追加すると、そのストレージ プールから容量が割り当てられて
いるすべてのFlash Poolキャッシュのサイズが増大します。追加容量の配分方法は指定できま
せん。
SSDストレージ プールの使用方法
SSDを複数のFlash Poolアグリゲートで共有できるようにするには、ストレージ プールに配置しま
す。ストレージ プールに追加したSSDは、スタンドアロンでは管理できなくなります。そのSSDのスト
レージは、ストレージ プールから割り当てる必要があります。
特定のHAペア用にストレージ プールを作成できます。作成したら、そのストレージ プールから、同
じHAペアが所有する1つ以上のFlash Poolアグリゲートに割り当て単位を追加します。アグリゲート
に割り当てるディスクがアグリゲートを所有するノードに所有されている必要があるのと同様に、ス
トレージ プールは、そのストレージ プールが所属するいずれかのノードに所有されているFlash
Poolアグリゲートにのみストレージを提供できます。
システムのFlash Poolキャッシュの量を拡張するには、ストレージ プールにSSDを追加します。SSD
は、そのストレージ プールを使用するFlash PoolキャッシュのRAIDタイプの最大RAIDグループ サ
イズまで追加できます。SSDを既存のストレージ プールに追加すると、Flash Poolアグリゲートに割
り当て済みの割り当て単位も含めて、ストレージ プールの割り当て単位が拡張されます。
ストレージ プール内のSSDに障害が発生した場合にData ONTAPがスペアSSDを使用して正常に
機能しないSSDのパーティションを再構築できるように、ストレージ プールには1つ以上のスペア
アグリゲートとは | 147
SSDを用意する必要があります。割り当て単位をスペア容量として確保する必要はありません。
Data ONTAPは、ストレージ プール内のパーティショニングされていない完全なSSDのみをSSDの
スぺアとして使用できます。
アグリゲートからディスクを削除できないのと同様に、いったんストレージ プールに追加したSSDは
削除できません。ストレージ プール内のSSDを単独のドライブとして再度使用するには、ストレージ
プールの割り当て単位が割り当てられているFlash Poolアグリゲートをすべて破棄してから、ストレ
ージ プールを破棄する必要があります。
SSDストレージ プールを使用する際の要件およびベストプラクティス
一部のテクノロジは、SSDストレージ プールを使用するFlash Poolアグリゲートと組み合わせること
ができません。
下記のテクノロジは、SSDストレージ プールをキャッシュ ストレージに使用するFlash Poolアグリゲ
ートでは使用できません。
•
MetroCluster
•
SyncMirror
ミラーされたアグリゲートとストレージ プールを使用するFlash Poolアグリゲートは一緒に使用
できますが、Flash Poolアグリゲートはミラーできません。
•
物理SSD
Flash Poolアグリゲートでは、SSDストレージ プールまたは物理SSDのいずれか一方を使用で
きますが、両方は使用できません。
SSDストレージ プールは次のルールに従う必要があります。
•
SSDストレージ プールにはSSDのみを含めることができます。HDDはSSDストレージ プールに
追加できません。
•
SSDストレージ プールに含めることができるSSDの数は、3~28です。
RAID 4の最大RAIDグループ サイズを超えるSSDが含まれるSSDストレージ プールは、RAID
4タイプのキャッシュを使用するFlash Poolアグリゲートには使用できません。
•
SSDストレージ プール内のすべてのSSDは、同じHAペアに所有されている必要があります。
•
ストレージ プール内でルートデータのパーティショニング用にパーティショニングされたSSDは
使用できません。
単一のストレージ プールからRAIDタイプが異なる2つのキャッシュにストレージを提供し、ストレー
ジ プールのサイズをRAID 4の最大RAIDグループ サイズよりも大きく拡張した場合、RAID 4割り
当て単位内の余分なパーティションは使われません。このため、ストレージ プール内のキャッシュ
RAIDタイプは統一することを推奨します。
ストレージ プールから割り当てられているキャッシュRAIDグループのRAIDタイプは変更できませ
ん。最初の割り当て単位を追加する前にキャッシュのRAIDタイプを設定すると、あとから変更でき
ません。
148 | 物理ストレージ管理ガイド
ストレージ プールを作成したり、SSDを既存のストレージ プールに追加するときは、同じサイズの
SSDを使用する必要があります。障害発生時に適切なサイズのスペアがない場合、Data ONTAP
では、より大きな容量のSSDを使用して障害の発生したSSDを交換できます。ただし、交換後の
SSDはストレージ プール内の他のSSDと同じサイズに調整されるため、SSDの容量が失われるこ
とになります。
ストレージ プールに使用できるスペアSSDは1本のみです。HAペアの両方のノードが所有する
Flash Poolアグリゲートにストレージ プールが割り当て単位を提供する場合は、どちらのノードでも
スペアSSDを所有できます。ただし、HAペアの一方のノードが所有するFlash Poolアグリゲートに
のみストレージ プールが割り当て単位を提供する場合は、その同じノードがスペアSSDを所有する
必要があります。
SSDストレージ プールの作成
2~4つのFlash PoolアグリゲートにSSDキャッシュを提供するためのSSDストレージ プールを作成
します。
タスク概要
ストレージ プールではdiskcountパラメータがサポートされません。ディスクを作成する場合や、スト
レージ プールにディスクを追加する場合は、ディスク リストを指定する必要があります。
手順
1. 使用可能なスペアSSDの名前を指定します。
storage aggregate show-spare-disks -disk-type SSD
ストレージ プールで使用されるSSDは、HAペアのどちらのノードでも所有できます。
2. ストレージ プールを作成します。
storage pool create -storage-pool sp_name -disk-list disk1,disk2,...
3. オプション: 新しく作成したストレージ プールを表示します。
storage pool show -storage-pool sp_name
タスクの結果
ストレージ プールが提供するストレージがまだどのFlash Poolキャッシュにも割り当てられていなく
ても、ストレージ プールに配置されたSSDは、クラスタではスペアとして表示されなくなります。SSD
を単独のドライブとしてRAIDグループに追加することもできなくなります。ストレージをプロビジョニ
ングできるのは、SSDが属しているストレージ プールの割り当て単位を使用する場合に限られま
す。
関連コンセプト
Flash Pool SSDパーティショニングでFlash Poolアグリゲートのキャッシュ割り当ての柔軟性を拡
張する方法(144ページ)
アグリゲートとは | 149
SSDを既存のストレージ プールに追加する場合と新規作成する場合の考慮事項(150ページ)
関連タスク
SSDストレージ プールを使用するFlash Poolアグリゲートの作成(182ページ)
SSDストレージ プールへのSSDの追加(149ページ)
関連参照情報
SSDストレージ プールの管理用コマンド(151ページ)
SSDストレージ プールへのSSDの追加
SSDストレージ プールにSSDを追加する場合は、ストレージ プールの物理サイズと使用可能なサ
イズ、および割り当て単位のサイズを拡張します。割り当て単位のサイズが大きくなると、Flash
Poolアグリゲートに割り当て済みの割り当て単位にも影響します。
開始する前に
この処理を実行してもHAペアのキャッシュ制限を超えないことを確認しておく必要があります。
Data ONTAPでは、SSDストレージ プールへのSSDの追加時にキャッシュ制限を超えてもかまいま
せんが、その場合、新しく追加したストレージ容量が使用できなくなる可能性があります。
タスク概要
既存のSSDストレージ プールにSSDを追加する場合は、ストレージ プール内の既存のSSDを所有
するノードと同じHAペアのどちらかのノードが所有するSSDを追加する必要があります。HAペア
のどちらのノードが所有するSSDでもかまいません。
手順
1. オプション: ストレージ プールの現在の割り当て単位のサイズと使用可能なストレージを表示し
ます。
storage pool show -instance sp_name
2. 使用可能なSSDを探します。
storage disk show -container-type spare -type SSD
3. ストレージ プールにSSDを追加します。
storage pool add -storage-pool sp_name -disk-list disk1,disk2…
どのFlash Poolアグリゲートのサイズがこの処理によってどのくらい拡張されるかが表示され、
処理を実行するかどうかの確認を求められます。
150 | 物理ストレージ管理ガイド
関連コンセプト
Flash Pool SSDパーティショニングでFlash Poolアグリゲートのキャッシュ割り当ての柔軟性を拡
張する方法(144ページ)
SSDを既存のストレージ プールに追加する場合と新規作成する場合の考慮事項(150ページ)
使用可能なFlash Poolキャッシュ容量の計算方法(140ページ)
関連タスク
SSDストレージ プールへのSSDの追加がキャッシュ サイズに及ぼす影響の特定(150ページ)
SSDストレージ プールの作成(148ページ)
関連情報
NetApp Hardware Universe
SSDを既存のストレージ プールに追加する場合と新規作成する場合の考慮事項
SDDキャッシュのサイズを拡張する方法は2つあります。SSDを既存のSSDストレージ プールに追
加する方法と、SSDストレージ プールを新規作成する方法です。最適な方法は、ストレージの構成
とプランに依存します。
ストレージ プールを新規作成するか既存のストレージ プールにストレージ容量を追加するかを選
択するには、RAIDグループを新規作成するか既存にストレージを追加するかどうかを決定するこ
とに似ています。
•
多数のSSDを追加する場合、ストレージ プールを新規作成すると新規のストレージ プールを既
存とは別の方法で割り当てることができるため、柔軟性が増します。
•
追加するSSDが少数であり、既存のFlash Poolキャッシュのサイズ増加が問題にならない場合
は、SSDを既存のストレージ プールに追加すると、スペアとパリティのコストを抑制し、また、新
規ストレージを自動的に割り当てることができます。
キャッシュのRAIDタイプが異なるFlash Poolアグリゲートにストレージ プールが割り当て単位を提
供し、RAIDグループ(RAID4)の最大サイズを超えてストレージ プールを拡張する場合、その
RAID4割り当て単位に新しく追加されたパーティションは使用されません。
SSDストレージ プールへのSSDの追加がキャッシュ サイズに及ぼす影響の特定
ストレージ プールにSSDを追加するとプラットフォーム モデルのキャッシュ制限を超えてしまう場
合、Data ONTAPでは新しく追加した容量をどのFlash Poolアグリゲートにも割り当てません。その
結果、新しく追加した容量の一部またはすべてを使用できなくなる可能性があります。
タスク概要
割り当て単位がFlash Poolアグリゲートにすでに割り当てられているSSDストレージ プールにSSD
を追加すると、これらのアグリゲートそれぞれのキャッシュ サイズと、システム全体のキャッシュ サ
イズが増加します。ストレージ プールのどの割り当て単位も割り当てられていない場合は、そのス
アグリゲートとは | 151
トレージ プールにSSDを追加しても、1つ以上の割り当て単位がキャッシュに割り当てられるまで
SSDのキャッシュ サイズに変化はありません。
手順
1. ストレージ プールに追加するSSDの使用可能なサイズを確認します。
storage disk show disk_name -fields usable-size
2. ストレージ プールの未割り当ての割り当て単位の数を確認します。
storage pool show-available-capacity sp_name
ストレージ プール内の未割り当てのすべての割り当て単位が表示されます。
3. 次の計算式を使用して、追加するキャッシュの容量を計算します。
(4 – 未割り当ての割り当て単位の数) × 25% × 使用可能なサイズ × SSDの数
SSDストレージ プールの管理用コマンド
Data ONTAPでは、storage poolコマンドを使用してSSDストレージ プールを管理できます。
状況
使用するコマンド
ストレージ プールがアグリゲートに提供してい
るストレージの容量を表示する
storage pool show-aggregate
両方のRAIDタイプの全体的なキャッシュ容量
(割り当て単位のデータ サイズ)に追加するキ
ャッシュの容量を表示する
storage pool show -instance
ストレージ プールのディスクを表示する
storage pool show-disks
ストレージ プールの未割り当ての割り当て単
位を表示する
storage pool show-availablecapacity
ストレージ プールの1つ以上の割り当て単位
の所有権をあるHAパートナーから別のHAパ
ートナーに切り替える
storage pool reassign
関連情報
Clustered Data ONTAP 8.3 Commands: Manual Page Reference
152 | 物理ストレージ管理ガイド
FlexVolに関連付けるアグリゲートの選択に対するSVMの影響
FlexVolには、1つのStorage Virtual Machine(SVM)と、FlexVolにストレージを提供する1つのアグリ
ゲートが関連付けられます。SVMは、その設定方法に応じて、ボリュームに関連付けることができ
るアグリゲートを制限できます。
FlexVolを作成するときには、どのSVMにボリュームを作成するか、またどのアグリゲートからその
ボリュームがストレージを取得するかを指定します。作成したFlexVolのストレージは、すべてこの
関連付けられたアグリゲートから取得されます。
ボリュームのSVMに複数のアグリゲートが割り当てられている場合、SVM上のボリュームにストレ
ージを提供できるのはそのうちの1つだけです。これにより、複数のSVMによる物理ストレージ リソ
ースの不適切な共有を回避できます。この切り分けはマルチテナンシー環境で特に重要になりま
す。スペース管理の設定方法によっては、複数のボリュームで同じアグリゲートを共有していると、
アグリゲートのスペースに制約がある場合に各ボリュームによる空きスペースの利用に影響する
可能性があります。アグリゲートの割り当て要件には、クラスタ管理者とSVM管理者の両方が従う
必要があります。
ボリューム移動処理とコピー処理はSVMのアグリゲート割り当てによる制約を受けないため、
SVMをそれぞれ別々のアグリゲートに配置する場合は、これらの処理の実行時にSVMのアグリ
ゲート割り当てに違反しないように注意する必要があります。
そのボリュームのSVMに割り当てられているアグリゲートがない場合、クラスタ管理者はクラスタ
内の任意のアグリゲートを使用して新しいボリュームにストレージを提供できます。ただし、SVM管
理者はアグリゲートが割り当てられていないSVMにボリュームを作成できません。このため、SVM
管理者が特定のSVMのボリュームを作成できるようにするには、そのSVMにアグリゲートを割り
当てる必要があります。
SVMに割り当てられているアグリゲートを変更しても、既存のボリュームには反映されません。 そ
のため、SVMに割り当てられたアグリゲートのリストから、そのSVMのボリュームに関連付けられ
たアグリゲートを判断することはできません。
関連タスク
SVMへのアグリゲートの割り当て(201ページ)
関連情報
clustered Data ONTAP 8.3 システム アドミニストレーション ガイド(クラスタ管理)
Data ONTAPでの異機種混在ストレージの処理について
異機種混在ストレージとは、特性(種類、速度、サイズ、チェックサム)が異なるディスクを含む環境
や、ディスクとアレイLUNの両方をストレージ システムに接続している環境のことを指します。Data
アグリゲートとは | 153
ONTAPでの異機種混在ストレージの処理について理解すると、アグリゲートやRAIDグループをベ
ストプラクティスに従って構成し、ストレージの可用性を最大限に高めることができます。
速度の異なるディスクを同じアグリゲートに混在させる方法
アグリゲートでは、可能なかぎり同じ速度のディスクを使用してください。ただし、必要な場合は、デ
ィスク クラスに基づいてアグリゲート内で速度の異なるディスクを混在させることができるように
Data ONTAPを設定できます。
アグリゲート内での速度の異なるディスクの混在を許可するようData ONTAPを設定するには、次
のRAIDオプションを使用します。
•
raid.mix.hdd.rpm.performance
•
raid.mix.hdd.rpm.capacity
これらのオプションをonに設定すると、Data ONTAPでは、指定したディスク クラスに関して速度の
混在が許可されるようになります。パフォーマンス ディスク タイプとしてはFCとSAS、キャパシティ
ディスク タイプとしてはBSAS、FSAS、MSATA、およびATAがあります。
デフォルトでは、raid.mix.hdd.rpm.performanceはoffに設定され、
raid.mix.hdd.rpm.capacityはonに設定されます。
速度の混在を許可するようにData ONTAPが設定されていない場合でも、-allow-mixedパラメー
タをtrueに設定することにより、速度の異なるディスクでアグリゲートを作成できます。
異機種混在ストレージからのディスク選択の制御方法
異機種混在ストレージとは、特性が異なるディスクが同じノード上に混在しているシステムや、ディ
スクとアレイLUNの両方を同じノードに接続しているシステムです。異機種混在ストレージからアグ
リゲートを作成する場合は、Data ONTAPで目的のディスクが使用されるように一定の手順に従う
必要があります。
異機種混在ストレージのノードでは、使用するディスクのタイプを明示的に指定しないと、使用可能
なディスクの数が最も多いディスク タイプ(アレイLUNを含む)が使用されます。異機種混在ストレ
ージを使用してアグリゲートを作成したりアグリゲートにストレージを追加したりするときは、次のい
ずれかの方法で、正しいディスクまたはディスク タイプが選択されるように設定する必要がありま
す。
•
ディスクの属性を使用する
◦ -disksizeオプションを使用すると、ディスク サイズを指定できます。
使用可能なサイズが指定されたサイズの90~105%であるディスクが選択されます。
◦ -diskrpmオプションを使用すると、ディスク速度を指定できます。
◦ -disktypeオプションを使用すると、ディスク タイプを指定できます。
•
ディスク選択プレビューを使用する
154 | 物理ストレージ管理ガイド
-simulateオプションを使用すると、Data ONTAPで自動的に選択されるディスクを確認できま
す。ディスクの選択に問題がなければ、そのままディスクの自動選択を続けることができます。
問題があれば、前述のいずれかの方法で、正しいディスクが選択されるようにします。
•
明示的なディスク リストを使用する
使用するディスクを、名前で指定できます。ただし、ディスク リストではなくdiskcountオプショ
ンを使用することを推奨します。これにより、構成に最適なディスクをData ONTAPで選択できま
す。
注: ディスク障害などの計画外のイベントが発生した場合、Data ONTAPは自動的に別のディス
クをRAIDグループに追加します。この場合に、システム上のどのRAIDグループに対しても常に
最適なディスクが選択されるようにするには、システムで使用されているすべてのディスクのタイ
プとサイズに合致するスペア ディスクを、少なくとも1つ(できれば2つ)ずつ用意しておくのが最
善の方法です。
タイプの異なるHDDをアグリゲート内に混在させる場合のルール
異なるループまたはスタックのディスクを同じアグリゲート内に混在させることができます。RAIDオ
プションraid.mix.hdd.disktypeの値に応じて、特定のタイプのHDDを同じアグリゲート内に混
在させることができますが、ディスク タイプの組み合わせの中には、他の組み合わせよりも推奨さ
れるものがあります。
対応するraid.mix.hdd.disktypeオプションがoffに設定されている場合、HDD RAIDグルー
プに含めることができるData ONTAPのディスク タイプは1つだけです。この設定ではアグリゲート
内のディスク タイプは1つとなり、システムで使用されているすべてのディスク タイプに対して十分
なスペア ディスクを用意する必要があります。
raid.mix.hdd.disktype.performanceオプションのデフォルト値はoffで、タイプの異なるSAS
ディスクおよびFCALディスクを混在させることはできません。
raid.mix.hdd.disktype.capacityオプションのデフォルト値はonです。この設定では、アグリ
ゲートの作成、アグリゲートへの追加、およびスペアの管理に際してBSAS、FSAS、ATAはすべて
同じタイプとみなされます。
アグリゲートのパフォーマンスを最大限にし、ストレージ管理を簡単にするためには、FC接続ディ
スクとSAS接続ディスクを同じアグリゲート内に混在させないようにします。これは、FC接続ストレ
ージ シェルフとSAS接続ストレージ シェルフのパフォーマンスが一致しないためです。この2つの接
続タイプを同じアグリゲート内に混在させた場合、一部のデータが高パフォーマンスのSAS接続ス
トレージ シェルフから提供されていても、FC接続ストレージ シェルフが存在するためアグリゲート
のパフォーマンスが制限されます。
MSATAディスクとその他のディスク タイプを同じアグリゲート内に混在させることはできません。
ノードでルートデータのパーティショニングを使用する場合は、パーティショニングされていない
HDDと同じ混在ルールがパーティショニングされたHDDに適用されます。パーティショニングされ
たHDDとパーティショニングされていないHDDを同じアグリゲート内に混在させることはできます
が(パーティショニング以外の点で互換性がある場合)、同じRAIDグループに混在させることはで
アグリゲートとは | 155
きません。パーティショニングされたHDDを含む既存のRAIDグループに追加された物理(パーティ
ショニングされていない)HDDは、パーティショニングされたHDDになります。
ストレージ暗号化を使用するディスクのData ONTAPのディスク タイプはSASになります。ただし、こ
れらのディスクは、ストレージ暗号化を使用していないSASディスクを含めて、他のどのディスク タ
イプとも混在させることができません。ストレージ暗号化を使用しているディスクがストレージ シス
テムに含まれている場合は、ストレージ システム(および高可用性 パートナー ノード)のすべての
ディスクでストレージ暗号化を使用する必要があります。
注: 複数のタイプのHDDが混在しているアグリゲートがすでに含まれているシステムで、
raid.mix.hdd.disktypeオプションをoffに設定しても、これらのアグリゲートは引き続き正常
に機能し、両方のタイプのHDDを追加できます。ただし、そのオプションがoffに設定されている
かぎり、指定したディスク タイプで構成される他のアグリゲートでは、タイプの異なるHDDを追加
することはできません。
関連コンセプト
Data ONTAPで使用されるディスク タイプ名(10ページ)
関連情報
ネットアップ テクニカル レポート3437:『Storage Subsystem Resiliency Guide』
Flash Poolアグリゲート内に複数のドライブ タイプを混在させる場合のルール
Flash Poolアグリゲートには、定義上は、複数のドライブ タイプを混在させることができます。ただ
し、HDD RAIDグループに異なるドライブ タイプを混在させる際は、標準のアグリゲートと同じルー
ルが適用されます。たとえば、パフォーマンス ディスクとキャパシティ ディスクを同じFlash Poolアグ
リゲートに混在させることはできません。SSDキャッシュに格納できるのはSSDだけです。
アレイLUNのアグリゲートに複数のストレージを混在させる場合のルール
アグリゲートについて計画するときは、アグリゲートにストレージを混在させる場合のルールを考慮
する必要があります。異なるストレージ タイプや、ベンダーまたはベンダー ファミリーが異なるアレ
イLUNを同じアグリゲートに混在させることはできません。
同じアグリゲートに混在できないケースを次に示します。
•
アレイLUNとディスク
•
チェックサム方式が異なるアレイLUN
•
ドライブ タイプ(FCとSATAなど)や速度が異なるアレイLUN
•
異なるストレージ アレイ ベンダーのアレイLUN
•
異なるストレージ アレイ モデル ファミリーのアレイLUN
156 | 物理ストレージ管理ガイド
注: 同じファミリーのストレージ アレイは、パフォーマンスとフェイルオーバーの仕様が共通して
います。 たとえば、同じファミリーのメンバーは、すべてアクティブ-アクティブ フェイルオーバーを
実行するか、アクティブ-パッシブ フェイルオーバーを実行します。ストレージ アレイがどのファミ
リーに所属するかは、1つ以上の要素によって決まります。たとえば、アーキテクチャが異なるス
トレージ アレイは、他の特徴が同じでも別のファミリーになります。
アレイLUNを含むアグリゲートのチェックサム方式の決定方法
Data ONTAPのアグリゲートには、それぞれチェックサム方式が関連付けられます。アグリゲートの
チェックサム方式は、アグリゲートに追加されたアレイLUNのチェックサム方式によって決まりま
す。
アグリゲートのチェックサム方式は、そのアグリゲートに最初に追加されたアレイLUNのチェックサ
ム方式によって決まります。そのチェックサム方式がアグリゲート全体(つまりアグリゲート内のす
べてのボリューム)に適用されます。アグリゲートにチェックサム方式が異なるアレイLUNを混在さ
せることはできません。
•
ブロック チェックサム方式のアグリゲートでは、ブロック方式のアレイLUNを使用する必要があ
ります。
•
アドバンスド ゾーン チェックサム(AZCSまたはadvanced_zoned)方式のアグリゲートでは、ゾー
ン方式のアレイLUNを使用する必要があります。
注: 8.1.1より前のData ONTAP では、ゾーン チェックサム方式のアレイLUNをZCS(ゾーン)
方式のアグリゲートで使用していました。8.1.1以降では、ゾーン チェックサム方式のアレイ
LUNを使用して新規に作成したアグリゲートはいずれもAZCSになります。ただし、ゾーン チ
ェックサム方式のアレイLUNをZCS方式の既存のアグリゲートに追加することは引き続き可
能です。
アグリゲートにアレイLUNを追加するときは、次のような理由から、追加するLUNのチェックサム方
式を事前に確認しておく必要があります。
•
同じアグリゲートにチェックサム方式が異なるアレイLUNを追加することはできません。
•
アグリゲートを別のチェックサム方式のアグリゲートに変換することはできません。
アグリゲートの作成時にアレイLUNを追加するときは、追加するアレイLUNの数を指定する方法
と、追加するLUNの名前を指定する方法があります。アグリゲートに追加するアレイLUNの数を指
定する場合は、そのチェックサム方式のアレイLUNを指定した数以上用意しておく必要がありま
す。
アグリゲート内のスペースの使用量を確認する方法
aggregate show-spaceコマンドを使用して、1つまたは複数のアグリゲート内のすべてのボリュ
ームによるスペース使用量を確認することができます。この情報から包含アグリゲートのスペース
アグリゲートとは | 157
を最も使用しているボリュームを確認すると、空きスペースを増やすための対処方法を講じる際に
役立ちます。
アグリゲートの使用スペースは、アグリゲートに含まれるFlexVolおよびInfinite Volumeコンスティチ
ュエントで使用されるスペースに直接左右されます。また、ボリュームのスペースを増やすための
操作もアグリゲートのスペースに影響します。
アグリゲートがオフラインの場合は値は表示されません。コマンド出力には、値が0になる行は表
示されません。ただし、-instanceパラメータを使用すると、スペースを使用していない無効になっ
ている機能も含め、すべての機能の行を表示できます。表示するデータがない行については、値
の欄に-が表示されます。
aggregate show-spaceコマンドの出力に含まれる行を次に示します。
•
Volume Footprints
アグリゲート内のすべてのボリュームによる占有量の合計。これには、包含アグリゲート内の
すべてのボリュームのデータおよびメタデータ用に使用またはリザーブされているすべてのス
ペースが含まれます。包含アグリゲート内のすべてのボリュームを削除した場合、このスペー
スが解放されることになります。Infinite Volumeのコンスティチュエントは、スペース使用量コマ
ンドの出力にはFlexVolであるかのように表示されます。
•
Aggregate Metadata
アグリゲートで必要なファイルシステム メタデータ(割り当てビットマップやinodeファイルなど)の
合計。
•
Snapshot Reserve
ボリューム サイズに基づいてアグリゲートSnapshotコピー用にリザーブされているスペース。こ
のスペースは使用済みとみなされ、ボリュームやアグリゲートのデータまたはメタデータ用に使
用することはできません。
•
Snapshot Reserve Unusable
当初はアグリゲートSnapshotリザーブ用に割り当てられていたスペース。アグリゲートに関連付
けられたボリュームで使用されているため、アグリゲートSnapshotコピーでは使用できません。
アグリゲートSnapshotリザーブが0以外のアグリゲートの場合にのみ表示されます。
•
Total Used
ボリューム、メタデータ、Snapshotコピー用に使用またはリザーブされているアグリゲート内のス
ペースの合計。
•
Total Physical Used
将来使用するためにリザーブされているのではなく、現在データに使用されているスペース。ア
グリゲートSnapshotコピー用に使用されるスペースが含まれます。
Snapshotオーバーフローについての行は表示されません。
Snapshotリザーブが5%のアグリゲートに対するaggregate show-spaceコマンドの出力例を次に
示します。Snapshotリザーブが0の場合は、その行は表示されません。
158 | 物理ストレージ管理ガイド
cluster1::> storage aggregate show-space
Aggregate : wqa_gx106_aggr1
Feature
-------------------------------Volume Footprints
Aggregate Metadata
Snapshot Reserve
Total Used
Total Physical Used
Used
---------101.0MB
300KB
5.98GB
Used%
-----0%
0%
5%
6.07GB
34.82KB
5%
0%
ボリュームのアグリゲートでのスペース使用量を確認および制御する
方法
アグリゲートのスペースを最も使用しているのはどのFlexVolまたはInfinite Volumeコンスティチュ
エントか、また具体的にボリュームのどの機能が最も使用しているのかを確認することができま
す。ボリュームによる占有量(包含アグリゲートでのスペースの使用量)に関する情報を確認する
には、volume show-footprintコマンドを使用します。
volume show-footprintコマンドの出力には、アグリゲート内の各ボリューム(オフラインのボリ
ュームを含む)によるスペース使用量の詳細が表示されます。このコマンドは、dfコマンドの出力
にそのまま対応しているわけではなく、volume show-spaceコマンドでもaggregate showspaceコマンドでも出力されない情報を提供します。割合の値はいずれもアグリゲートのサイズを
基準とした値です。
コマンド出力には、値が0になる行は表示されません。ただし、-instanceパラメータを使用する
と、スペースを使用していない無効になっている機能も含め、すべての機能の行を表示できます。
表示するデータがない行については、値の欄に-が表示されます。
Infinite Volumeのコンスティチュエントは、スペース使用量コマンドの出力にはFlexVolであるかの
ように表示されます。
testvolという名前のボリュームに対するvolume show-footprintコマンドの出力例を次に示しま
す。
cluster1::> volume show-footprint testvol
Vserver : thevs
Volume : testvol
Feature
-------------------------------Volume Data Footprint
Volume Guarantee
Used
---------120.6MB
1.88GB
Used%
----4%
71%
アグリゲートとは | 159
Flexible Volume Metadata
Delayed Frees
Total Footprint
11.38MB
1.36MB
2.01GB
0%
0%
76%
次の表に、volume show-footprintコマンドの出力の主な行についての説明と、それぞれの機
能によるスペース使用量を削減する方法を示します。
行 / 機能名
説明 / 行の内容
Volume Data
Footprint
アクティブなファイルシステムのボリュ
ームのデータに使用されている包含ア
グリゲート内のスペースと、ボリューム
のSnapshotコピーに使用されているス
ペースの合計。この行の値にはリザー
ブ スペースは含まれません。そのた
め、ボリュームにリザーブ ファイルがあ
る場合は、volume show-spaceコマン
ドで出力されるボリュームによる合計ス
ペース使用量はこれよりも多い場合が
あります。
削減方法の例
•
ボリュームからデータを削除し
ます。
•
ボリュームからSnapshotコピー
を削除します。
Volume
Guarantee
ボリュームによって以降の書き込み用
にリザーブされているアグリゲート内の
スペース。リザーブされるスペースの量
はボリュームのギャランティ タイプによ
って異なります。
ボリュームのギャランティ タイプを
noneに変更します。この行が0に
なります。
ボリューム ギャランティをnoneにし
てボリュームを構成する場合は、
ストレージの可用性に与える影響
についてテクニカル レポート3965
または3483で確認してください。
Flexible
Volume
Metadata
ボリュームのメタデータ ファイルに使用
されているアグリゲート内のスペースの
合計。
直接制御する方法はありません。
160 | 物理ストレージ管理ガイド
行 / 機能名
説明 / 行の内容
削減方法の例
Delayed
Frees
パフォーマンス目的でData ONTAPで使
用されていた、すぐには解放できないブ
ロック。
アグリゲートのスペースを解放する処
理は、パフォーマンスを向上させるため
にバッチ方式で処理されるため、Data
ONTAPがFlexVol内のブロックを解放し
ても、そのスペースがアグリゲートです
ぐに空きスペースとなるとは限りませ
ん。このような、FlexVol内で空きブロッ
クとして宣言され、アグリゲートではま
だ解放されていないブロックは、「遅延
解放ブロック」と呼ばれます。
SnapMirrorのデスティネーションについ
ては、値が0になるため、この行は表示
されません。
直接制御する方法はありません。
File
Operation
Metadata
ファイル処理メタデータ用にリザーブさ
れているスペースの合計。
ファイル処理メタデータに使用されたス
ペースは、空きスペースとしてアグリゲ
ートに戻されませんが、後続のファイル
処理で再利用されます。
直接制御する方法はありません。
Total
Footprint
ボリュームで使用されているアグリゲー
ト内のスペースの合計。すべての行を
合計した値です。
上記のいずれかの方法でボリュー
ムによるスペース使用量を削減し
ます。
Infinite Volumeでのアグリゲートの使用方法
各Infinite Volumeのデータは、複数のノードの複数のアグリゲートに分散されます。アグリゲートが
Infinite Volumeでどのように使用されるかを理解すると、Infinite Volumeをサポートするような形に
アグリゲートを設定できます。
Infinite Volumeの詳細については、『Clustered Data ONTAP Infinite Volumes Management Guide』
を参照してください。
アグリゲートとは | 161
Infinite Volumeのアグリゲートに関する要件
Infinite Volume が使用するアグリゲートは、サイズが100TB以上であり、1.1TB以上の空きスペー
スが存在する必要があります。Infinite Volumeでストレージ クラスを使用する場合は、ストレージ
クラスの要件も満たす必要があります。
アグリゲートの空きスペースが1.1TBに満たない場合、そのアグリゲートはInfinite Volumeを備えた
Storage Virtual Machine(SVM)で使用されません。
Infinite Volumeでストレージ クラスを使用する場合は、それらのストレージ クラスの要件を満たす
必要があります。たとえば、SASタイプのアグリゲートを使用するように指定されたストレージ クラス
を使用する場合、そのストレージ クラス用のアグリゲートはSASディスクだけで構成する必要があり
ます。
FlexVolとInfinite Volumeでのアグリゲートの共有
アグリゲートはクラスタ内の複数のボリュームで共有できます。各アグリゲートは、複数のFlexVol
と、複数のInfinite Volumeのコンスティチュエントを同時に含むことができます。
Infinite Volumeを作成すると、そのコンスティチュエントが、Infinite Volumeを含むStorage Virtual
Machine(SVM)に割り当てられているアグリゲートに配置されます。Infinite Volumeを備えたSVM
にFlexVolを含むアグリゲートが含まれており、それらのアグリゲートがInfinite Volumeのホスト要
件を満たしている場合、すでにFlexVolを含むそれらのアグリゲートにInfinite Volumeのいくつかの
コンスティチュエントが配置されることがあります。
同様に、FlexVolを作成する際に、Infinite Volumeですでに使用されているアグリゲートにその
FlexVolを関連付けることができます。
次の図は、FlexVolとInfinite Volumeの両方を含む4ノード クラスタにおけるアグリゲートの共有を
示しています。Infinite VolumeはaggrA、aggrB、aggrC、aggrD、aggrE、およびaggrGを使用します
が、そのうちのaggrB、aggrC、aggrGはすでにFlexVolにストレージを提供しています (わかりやすく
するため、Infinite Volumeを構成する個々のコンスティチュエントは省略しています)。
162 | 物理ストレージ管理ガイド
Infinite Volumeにどのアグリゲートを関連付けることができるかにストレージ クラスが
与える影響
ストレージ クラスの定義では、アグリゲートの種類がそれぞれ指定されています。ストレージ クラ
スを含むInfinite Volumeを作成する場合、ボリュームのストレージは、ストレージ クラスに対して指
定された種類のアグリゲートからしか提供できません。ストレージ クラスに適したアグリゲートを作
成できるように、ストレージ クラスの定義について理解しておく必要があります。
ストレージ クラスの定義は、OnCommand Workflow Automationでのみ使用できます。各ストレー
ジ クラスのアグリゲートの要件を確認したあと、コマンドライン インターフェイスまたはOnCommand
Workflow Automationを使用してストレージ クラスのアグリゲートを作成できます。ただし、ストレー
ジ クラスを含むInfinite Volumeを作成する場合は、コマンドライン インターフェイスではなく、
OnCommand Workflow Automationを使用する必要があります。
OnCommand Workflow Automationを使用してストレージ クラスを含むInfinite Volumeを作成する
ときは、使用するストレージ クラスに基づいて、クラスタ内の使用可能なアグリゲートが
OnCommand Workflow Automationで自動的にフィルタされます。ストレージ クラスの要件を満た
すアグリゲートがない場合、そのストレージ クラスを含むInfinite Volumeは作成できません。
アグリゲートおよびノードとInfinite Volumeの関連付け
Infinite Volumeを備えたStorage Virtual Machine(SVM)のアグリゲート リストによって、そのInfinite
Volumeが使用するアグリゲートが決まります。また、Infinite Volumeを作成できる管理者やInfinite
Volumeが使用するノードも、アグリゲート リストに基づいて決まります。
アグリゲート リストは指定してもしなくてもかまいません。指定しなかった場合はダッシュ(「-」)が表
示されます。クラスタ管理者がSVMを作成する際、デフォルトではアグリゲート リストは指定されま
せん。SVMの作成後、vserver add-aggregatesコマンドを使用してアグリゲート リストを指定で
きます。
アグリゲート リストを指定するかどうか
クラスタ全体をInfinite Volumeを備えたSVM専用にする場合は、Infinite Volumeを備えたSVMのア
グリゲート リストを指定しなくてもかまいません。 それ以外のほとんどの場合、Infinite Volumeを備
えたSVMのアグリゲート リストを指定します。
Infinite Volumeを備えたSVMのアグリゲート リストを未指定のままにした場合、次の状況が発生し
ます。
•
Infinite Volumeを作成できるのはクラスタ管理者だけになり、SVM管理者は作成できなくなりま
す。
•
作成されたInfinite Volumeは、クラスタ内のすべてのノードを使用します。
•
作成されたInfinite Volumeは、クラスタ内のすべてのアグリゲートを使用できます。
アグリゲートとは | 163
アグリゲート リストに含まれるアグリゲート候補
Infinite Volumeを備えたSVMのアグリゲート リストに含まれるのは、Infinite Volumeで使用される
アグリゲートの候補にすぎません。 Infinite Volumeで実際に使用されるアグリゲートは、次のよう
なさまざまな要因によって決まります。
•
Infinite Volumeを作成すると、アグリゲート リストに含まれるアグリゲートのうち、ノードごとに少
なくとも1つのアグリゲートに、少なくとも1つのデータ コンスティチュエントが作成されます。
•
Infinite Volumeは、指定されたサイズの容量要件を満たすために必要なアグリゲートだけを使
用します。
Infinite Volumeの最初の作成時にInfinite Volumeで必要な容量をはるかに超えるアグリゲート
を割り当てた場合は、アグリゲート リストに含まれる一部のアグリゲートにはInfinite Volumeコ
ンスティチュエントが格納されないことがあります。
アグリゲート リストでのノードの選択
Infinite Volumeは、Infinite Volumeを備えたSVMのアグリゲート リストにあるアグリゲートを含むす
べてのノードを使用します。
アグリゲート リストへの変更が反映されるタイミング
アグリゲート リストへの変更はすぐには反映されません。アグリゲート リストが使用されるのは、
Infinite Volumeのサイズが変わったときです。たとえば、Infinite Volumeを備えたSVMのアグリゲ
ート リストにアグリゲートを追加しても、Infinite Volumeのサイズを変更するまではそのアグリゲー
トは使用されません。
新しいノードのアグリゲートをアグリゲート リストに追加し、Infinite Volumeのサイズを変更した場
合に、追加したアグリゲートがInfinite Volumeで使用されるかどうかは、既存のコンスティチュエン
トのサイズやInfinite Volumeのサイズ変更量など、いくつかの要因によって決まります。
アグリゲート リストのフィルタリング方法
SVMのアグリゲート リストは、高度なパラメータを使用して、アグリゲートを使用するコンスティチュ
エントの種類(データ コンスティチュエントなど)別にフィルタリングできます。SVMのアグリゲート リ
ストとは異なり、このアグリゲート選択パラメータが適用されるのは1回だけです。たとえば、Infinite
Volumeの作成時にパラメータを使用してデータ コンスティチュエントのアグリゲートを指定しても、
その後パラメータを使用せずにInfinite Volumeのサイズを変更すると、Infinite VolumeではSVMの
アグリゲート リストが使用されます。
新しいInfinite Volume内でのスペースの割り当て方法
Infinite Volumeの作成時、コンスティチュエントへのスペースの割り当ては、いくつかのルールに従
って行われます。このルールを理解することで、Infinite Volume用のアグリゲートの設定に関する
ベストプラクティスに対する理解も深まります。
Infinite Volumeの作成時には、次のルールに従って各コンスティチュエントにスペースが割り当て
られます。
164 | 物理ストレージ管理ガイド
1. ネームスペース コンスティチュエントとそのミラー コピーが作成されます。
データ用のスペースを割り当てる前に、ネームスペース コンスティチュエントとネームスペース
ミラー コンスティチュエントが、最大サイズの範囲内で最も多くのスペースを確保できる場所に
作成されます。
a. ネームスペース コンスティチュエントが、Infinite Volumeが使用するいずれかのノードにあ
る、利用可能なスペースが最も多いアグリゲートに配置されます。
b. 1つ目のネームスペース ミラー コンスティチュエントが、利用可能なスペースが次に多いア
グリゲートに配置されます。ただし、次のすべての条件に当てはまるノードにある必要があ
ります。
•
Infinite Volumeで使用される。
•
ネームスペース コンスティチュエントが含まれていない。
•
ネームスペース コンスティチュエントを含むノードの、HAペアのパートナー ノードでない
ことが推奨される。
c. SnapDiffが有効になっている場合、2つ目以降のネームスペース ミラー コンスティチュエント
が、Infinite Volumeで使用される残りの各ノードにある、利用可能なスペースが最も多いア
グリゲートに配置されます。
2. Infinite Volumeが使用するノードに、データ容量が均等に配分されます。
Infinite Volumeのデータ容量は、ノード間で均等に配分されます。データ容量は、Infinite
Volumeのサイズからネームスペース関連のコンスティチュエントに必要なスペースを差し引い
た、残りのスペースです。
3. それぞれのノード内で、個々のデータ コンスティチュエントが指定の最大サイズの範囲内でで
きるだけ大きなサイズで作成されます。
データ コンスティチュエントは、常に指定の最大サイズの範囲内でできるだけ大きなサイズで
作成されます。Data ONTAPは、データ コンスティチュエントを作成するたびに、Infinite Volume
がそのノード上で使用するすべてのアグリゲートを評価し、利用可能なスペースが最も多いア
グリゲートを選択します。
Infinite Volumeで使用されるアグリゲートの所有権の切り替え
SnapDiffを有効にしたInfinite Volumeで使用されているアグリゲートの所有権を切り替える場合
は、デスティネーション ノードにネームスペース ミラー コンスティチュエントがあることを確認し、ア
グリゲートの再配置を特定の順序で実行する必要があります。
開始する前に
•
Infinite VolumeでSnapDiffが有効になっているかどうかを確認しておく必要があります。
これは、volume showコマンドで-fields -enable-snapdiffパラメータを指定して確認でき
ます。
•
ソース ノードとデスティネーション ノードのアグリゲートの名前を確認しておく必要があります。
アグリゲートとは | 165
タスク概要
•
この手順は、所有権切り替えの影響を受けるアグリゲートが含まれるノードを使用している
Infinite Volumeで、SnapDiffが有効になっている場合にのみ実行します。Infinite Volumeで
SnapDiffが有効になっていない場合は、この手順は実行しないでください。Infinite Volumeの有
無はアグリゲートの再配置処理には影響しません。
•
SnapDiffおよびInfinite Volumeでのアグリゲートの使用方法の詳細については、『Clustered
Data ONTAP Infinite Volumes Management Guide』を参照してください。
手順
1. vserver showコマンドで-instanceパラメータを指定して、デスティネーション ノードがInfinite
Volumeですでに使用されているかどうかを確認します。
•
アグリゲート リストにデスティネーション ノードのアグリゲートが含まれている場合、Infinite
Volumeでデスティネーション ノードがすでに使用されています。
•
アグリゲート リストにデスティネーション ノードのアグリゲートが含まれていない場合、
Infinite Volumeでデスティネーション ノードが使用されていません。
アグリゲートの所有権を切り替えるためには、デスティネーション ノードにネームスペース ミラ
ー コンスティチュエントが必要です。
2. デスティネーション ノードがInfinite Volumeで使用されていない場合は、Infinite Volumeにデス
ティネーション ノードを追加します。
a. volume showコマンドで-is-constituent trueパラメータを指定して、Infinite Volumeの
ネームスペース コンスティチュエントのサイズを確認します。ネームスペース コンスティチュ
エントには、名前に「ns」が付いています。
b. aggregate showコマンドを使用して、ネームスペース ミラー コンスティチュエントを格納で
きるだけの空きスペースがあるデスティネーション ノードのアグリゲートを特定します。
c. vserver modifyコマンドで-aggr-listパラメータを指定して、Infinite Volumeに新しいノ
ードのアグリゲートを割り当てます。
アグリゲート リストを指定する際、新しいノードの新しいアグリゲートだけでなく、既存のノー
ドの既存のアグリゲートもすべて含めてください。
d. volume modifyコマンドで-sizeパラメータを指定して、Infinite Volumeのサイズを拡張し
ます。
Infinite Volumeのサイズは、少なくともネームスペース コンスティチュエントのサイズと同じ
分だけ拡張します。
デスティネーション ノードにネームスペース ミラー コンスティチュエントが作成されます。
166 | 物理ストレージ管理ガイド
3. volume showコマンドで-vserverパラメータと-is-constituent trueパラメータを指定し
て、ソース ノードの各アグリゲートに格納されているInfinite Volumeのコンスティチュエントの種
類を確認します。
名前に「data」が付いたコンスティチュエントはデータ コンスティチュエントです。名前の末尾に
「_ns」が付いたコンスティチュエントはネームスペース コンスティチュエントです。名前に
「ns_mirror」が付いたコンスティチュエントはネームスペース ミラー コンスティチュエントです。
例
次の出力では、aggr3にはデータ コンスティチュエント、aggr1にはネームスペース ミラー コンス
ティチュエント、aggr2にはネームスペース ミラー コンスティチュエントがそれぞれ格納されてい
ます。
cluster1::> volume show -vserver vs0 -is-constituent true
Vserver
Volume
Aggregate
State
Type
Size Available Used%
--------- ------------ ------------ ---------- ---- ---------- ---------- ----vs0
repo_vol_1024_data0001 aggr3 online RW
100TB
95TB
5%
vs0
repo_vol_1024_data0002 vs_aggr online RW
100TB
95TB
5%
vs0
repo_vol_1024_data0003 aggr4 online RW
100TB
95TB
5%
...
...
...
vs0
repo_vol_ns aggr1
online
RW
10TB
9.5TB
5%
vs0
repo_vol_ns_mirror0001 aggr2 online DP
10TB
9.5TB
5%
100 entries were displayed.
4. アグリゲートの再配置を次のように実行します。
a. アグリゲートを次の2つに分けます。
•
ネームスペース コンスティチュエントまたはネームスペース ミラー コンスティチュエント
のいずれかを含む1つのアグリゲート。
データ コンスティチュエントを含んでいてもかまいません。
•
データ コンスティチュエントを含む、ノード上のその他すべてのアグリゲート。
b. ネームスペース コンスティチュエントとネームスペース ミラー コンスティチュエントのどちら
も含んでいないすべてのアグリゲートの所有権を切り替えます。
注: データ コンスティチュエントを含むすべてのアグリゲートの所有権を切り替えることな
く、ネームスペース コンスティチュエントを含むアグリゲートの所有権を切り替えるには、
ソース ノードにネームスペース ミラー コンスティチュエントを作成するときにテクニカル
サポートへの問い合わせが必要になります。
c. 残りのアグリゲートにネームスペース コンスティチュエントだけが含まれている場合、または
複数の種類のコンスティチュエントが含まれている場合は、そのアグリゲートの所有権を切
り替えます。
残りのアグリゲートにネームスペース ミラー コンスティチュエントだけが含まれていて、デー
タ コンスティチュエントが含まれていない場合、そのアグリゲートの所有権を切り替える必
要はありません。
アグリゲートとは | 167
終了後の操作
スペースを無駄に使用している余分なネームスペース ミラー コンスティチュエントがある場合は、
テクニカル サポートに削除を依頼できます。
168 | 物理ストレージ管理ガイド
アグリゲートの管理
関連付けられたボリュームにストレージを提供できるようにアグリゲートの作成と管理を行います。
パーティショニングされていないドライブを使用するアグリゲートの作
成
アグリゲートを作成すると、1つ以上のFlexVolおよびInfinite Volumeにストレージを提供できます。
アグリゲートは物理ストレージ オブジェクトであり、クラスタ内の特定のノードに関連付けられます。
開始する前に
•
新しいアグリゲートで使用するドライブまたはアレイLUNを把握しておきます。
•
アグリゲートの作成に使用するドライブまたはアレイLUNの数が指定されている場合のRAID
グループの適切なサイズ、および将来的なアグリゲートの拡張計画を確認しておく必要があり
ます。
•
複数のドライブ タイプを含むノード(異機種混在ストレージ)の場合は、正しいドライブ タイプが
選択されるようにする方法を確認しておく必要があります。
タスク概要
この手順は、ルート パーティションまたはデータ パーティションで構成されたアグリゲートの作成に
は使用しないでください。
ドライブとアレイLUNは特定のノードによって所有されます。アグリゲートを作成する場合、アグリ
ゲート内のすべてのドライブは同一のノードによって所有される必要があります。そのノードが、作
成するアグリゲートのホーム ノードになります。
アグリゲート名は、次の要件を満たしている必要があります。
•
アルファベットまたはアンダースコア(_)のいずれかで始まる
•
アルファベット、数字、アンダースコアだけを含む
•
250文字未満である
手順
1. 使用可能なスペアの一覧を表示します。
storage aggregate show-spare-disks -original-owner node_name
2. storage aggregate createコマンドを使用して、アグリゲートを作成します。
アグリゲートの管理 | 169
クラスタ管理インターフェイスでクラスタにログインした場合、クラスタ内の任意のノードにアグリ
ゲートを作成できます。特定のノードにアグリゲートを作成するには、-nodeパラメータを使用す
るか、そのノードが所有するドライブを指定します。
指定できるオプションの一部を次に示します。
•
アグリゲートのホーム ノード(そのノードのストレージ フェイルオーバー パートナーにフェイ
ルオーバーされないかぎり、アグリゲートが格納されるノード)
•
追加するディスクまたはアレイLUNの数、あるいはアグリゲートに含める特定のドライブま
たはアレイLUNの一覧
最適なディスクを選択するには、ディスク リストではなくdiskcountパラメータを使用しま
す。これにより、構成に最適なディスクをData ONTAPで選択できます。
•
アグリゲートに使用するチェックサム形式
•
使用するドライブのタイプ
•
使用するドライブのサイズ
•
使用するドライブの速度
•
アグリゲートのRAIDグループのRAIDタイプ
•
RAIDグループに含めることができるドライブまたはアレイLUNの最大数
•
rpmの異なるドライブの混在を許可するかどうか
3. 初期化の進捗状況を監視して、新しいアグリゲートのRAIDグループとドライブを確認します。
storage aggregate show-status aggr_name
例
シングルノード クラスタ用のストレージ構成を作成します。SASディスクを搭載したシェルフを
4台用意します。ドライブ数は合計96本で、ルート アグリゲート用に3本のドライブを使用しま
す。残りのドライブの割り当ては次のとおりです。
•
スペア ドライブ2本
•
91本のドライブを以下のように1つのアグリゲート内のデータに使用
◦ 18本のドライブで構成されるRAIDグループ×4
◦ 19本のドライブで構成されるRAIDグループ×1
上記の構成を作成するために、次の手順を実行します。
1. 19本のディスクで構成される最初のRAIDグループを作成します。
storage aggregate create -aggregate n01sas01 -node cl-01 -diskcount
19 -maxraidsize 19 -disktype SAS
170 | 物理ストレージ管理ガイド
2. アグリゲートのRAIDグループの最大サイズを18に変更します。
storage aggregate modify -aggregate n01sas01 -maxraidsize 18
3. 残りの54本のディスクを、それぞれが18本のディスクで構成される4つのRAIDグループ
として追加します。
storage aggregate add-disks -aggregate n01sas01 -node cl-01 diskcount 54 -disktype SAS
あとから24本のドライブを搭載したシェルフをノードに追加し、このアグリゲートにストレージ
を追加する必要がある場合は、シェルフ全体が単一のRAIDグループに収まるように、RAID
グループのサイズを再度24に変更できます(インストレーションで、RAIDグループのサイズ
として24が許容されている場合)。
関連コンセプト
アグリゲートとは(133ページ)
RAIDグループのサイジングに関する考慮事項(118ページ)
Data ONTAPでの異機種混在ストレージの処理について(152ページ)
関連タスク
ルートデータのパーティショニングを使用するアグリゲートの作成(170ページ)
物理SSDを使用するFlash Poolアグリゲートの作成(180ページ)
ルートデータのパーティショニングを使用するアグリゲートの作成
通常、ルート アグリゲートは工場出荷時に作成済みで、データ アグリゲートはシステムの初期セッ
トアップで作成されます。ただし、パーティショニングされたドライブを使用して新しいデータ アグリ
ゲートを作成する必要がある場合は、パーティショニングされていない物理ドライブを使用してアグ
リゲートを作成する場合とは手順が少し異なります。
開始する前に
新しいアグリゲートで使用するドライブまたはパーティションを把握しておきます。
アグリゲートの作成に使用するドライブまたはパーティションの数が指定されている場合のRAID
グループの適切なサイズ、および将来的なアグリゲートの拡張計画を確認しておく必要がありま
す。
タスク概要
ドライブとパーティションは特定のノードによって所有されます。アグリゲートを作成する場合、新し
いアグリゲートに使用するすべてのパーティションは同一のノードによって所有される必要があり
ます。そのノードが、新しいアグリゲートのホーム ノードになります。
アグリゲートの管理 | 171
パーティションをプロビジョニングする場合は、両方のパーティションを含むスペア ディスクがノード
によって所有されている必要があります。両方のパーティションを含むスペア ディスクがノードに存
在しない場合にノードのコントローラが停止すると、問題に関する有用な情報(コア ファイル)をテク
ニカル サポートが利用できなくなる可能性があります。
アグリゲート名は、次の要件を満たしている必要があります。
•
アルファベットまたはアンダースコア(_)のいずれかで始まる
•
アルファベット、数字、アンダースコアだけを含む
•
250文字未満である
手順
1. スペア データ パーティションの一覧を表示します。
storage aggregate show-spare-disks -original-owner node_name
少なくとも1つのスペア パーティションを含むディスクの一覧が表示されます。データ パーティシ
ョンはLocal Data Usableの下に表示されます。データ アグリゲートの作成時にはデータ パ
ーティションを使用する必要があります。
2. アグリゲートで使用するパーティションの数を決定します。
スペア データ パーティションを適切な数だけ残しておいてください。Data ONTAPでは、ルート
パーティションをデータ アグリゲートのスペアとして使用することはありません。
3. アグリゲートの作成をシミュレートします。
storage aggregate create -aggregate aggr_name -node node_name -diskcount
number_of_partitions -simulate true
これにより、実際にストレージをプロビジョニングしなくてもアグリゲートの作成結果を確認でき
ます。シミュレートしたコマンドから警告が表示された場合は、コマンドを調整してシミュレーショ
ンを繰り返すことができます。
4. アグリゲートを作成します。
storage aggregate create -aggregate aggr_name -node node_name -diskcount
number_of_partitions
5. 初期化ステータスとアグリゲートの構成を確認します。
storage aggregate show-status aggr_name
関連コンセプト
ルートデータのパーティショニングの概要(32ページ)
RAIDグループのサイジングに関する考慮事項(118ページ)
172 | 物理ストレージ管理ガイド
関連タスク
パーティショニングされていないドライブを使用するアグリゲートの作成(168ページ)
ミスアライメントのあるスペア パーティションの修正(178ページ)
物理ドライブを使用するアグリゲートのサイズの拡張
アグリゲートにディスクやアレイLUNを追加することで、関連付けられたボリュームに提供できるス
トレージを増やすことができます。
開始する前に
•
同じシステムおよびプールに所有されているディスクまたはアレイLUNを追加する場合の要件
を理解しておく必要があります。
•
ディスクで構成されているアグリゲートの場合は、次の点を理解しておく必要があります。
◦ 同じサイズおよび速度のディスクでRAIDグループを構成する利点
◦ 併用できるディスクのタイプ
◦ チェックサム方式が異なる複数のディスクを使用する場合のチェックサムに関するルール
◦ 正しいディスクがアグリゲートに追加されるようにする方法(ディスクの追加処理はやり直し
できません)
◦ 異機種混在ストレージからアグリゲートにディスクを追加する方法
◦ 最高のパフォーマンスを得るために必要な最低ディスク数
◦ ディスク障害への対策として必要なホット スペアの数
◦ マルチディスク キャリアのディスク シェルフからディスクを追加する場合の要件
◦ ミラーされたアグリゲートの両方のプレックスに同時にストレージを追加する場合の要件(プ
レックスのサイズとディスク タイプを両方のプレックスで同じにする必要があります)
◦ Flash Poolアグリゲートにキャッシュを追加する場合は、システム モデルのキャッシュ制限お
よび制限の範囲内で追加するキャッシュの容量
タスク概要
この手順は、ルート パーティションまたはデータ パーティションで構成されたアグリゲートには使用
しないでください。
アグリゲートにストレージを追加する際は、次のベストプラクティスに従うと、アグリゲートのパフォ
ーマンスが最適化されます。
•
RAIDグループ全体を一度に追加します。
アグリゲートの管理 | 173
新しいRAIDグループを既存のRAIDグループと完全に同じサイズにする必要はありませんが、
既存のRAIDグループの半分未満のサイズのRAIDグループが存在しないようにしてください。
•
サイズの小さいRAIDグループがすでに存在する場合は、RAIDグループ内の既存の数と同数
以上のデータ ドライブを追加する場合に限り、他のRAIDグループのサイズに合わせてその
RAIDグループのサイズを拡張できます。
•
少数のドライブを既存のRAIDグループに追加しないでください。
この処理を行うと、追加したディスクが過度な割合の新規データのターゲット ディスクとして指
定され、新しいディスクがパフォーマンスのボトルネックになります。
手順
1. 追加できる適切なスペア ディスクまたはスペア アレイLUNがあることを確認します。
storage aggregate show-spare-disks -original-owner node_name
ディスクに関しては、表示されたスペアのうち十分な数が、ディスクを追加するアグリゲートのタ
ーゲットRAIDグループに合った、正しいタイプ、サイズ、速度、およびチェックサム方式であるこ
とを確認します。
2. ディスクまたはアレイLUNを追加します。
storage aggregate add-disks -aggregate aggr_name [-raidgroup
raid_group_name] disks
チェックサムがアグリゲートと異なるディスクを追加する場合(Flash Poolアグリゲートを作成す
る場合など)や、チェックサムが混在したアグリゲートにディスクを追加する場合は、checksumstyleパラメータを使用する必要があります。
Flash Poolアグリゲートにディスクを追加する場合は、-disktypeパラメータを使用してディスク
タイプを指定する必要があります。
-raidgroupパラメータを指定すると、指定したRAIDグループにストレージが追加されます。
raid_group_nameには、Data ONTAPによって付けられたグループ名を指定します(rg0な
ど)。Flash PoolアグリゲートのSSDキャッシュにSSDを追加する場合は、RAIDグループ名を指
定する必要はありません。SSD RAIDグループは、追加するディスクのタイプに基づいてデフォ
ルトで選択されます。
disksには、追加するディスクを次のいずれかの形式で指定します。
•
-diskcount(通常はさらにディスク タイプやチェックサム方式を指定)
•
-disklist disk1 [disk2...]
可能な場合は、diskcountオプションを使用してください。これにより、構成に最適なディスクを
Data ONTAPで選択できます。
ミラーされたアグリゲートにディスクを追加してディスク名を指定する場合は、-mirrordisklistパラメータも使用してください。
174 | 物理ストレージ管理ガイド
関連コンセプト
異機種混在ストレージからのディスク選択の制御方法(153ページ)
RAIDグループのサイジングに関する考慮事項(118ページ)
Flash Poolアグリゲートとは(136ページ)
Flash Poolアグリゲート内に複数のドライブ タイプを混在させる場合のルール(155ページ)
タイプの異なるHDDをアグリゲート内に混在させる場合のルール(154ページ)
使用可能なFlash Poolキャッシュ容量の計算方法(140ページ)
アグリゲートにストレージを追加したときの動作(180ページ)
関連タスク
ルートデータのパーティショニングを使用するアグリゲートのサイズの拡張(174ページ)
関連情報
ネットアップ テクニカル レポート4070:『Flash Pool Design and Implementation Guide』
ルートデータのパーティショニングを使用するアグリゲートのサイズの
拡張
パーティショニングされたドライブを使用している既存のアグリゲートにストレージを追加する場合
は、パーティショニングされたドライブとパーティショニングされていないドライブのどちらを追加す
るか、およびタイプの異なるドライブを同じRAIDグループに混在させる場合と新しいRAIDグルー
プを作成する場合のそれぞれのメリット / デメリットを確認しておく必要があります。
開始する前に
•
パーティションとパーティショニングされていないドライブのどちらをアグリゲートに追加するかを
確認しておく必要があります。
•
ストレージの追加先となるアグリゲートのRAIDグループのサイズを確認しておく必要がありま
す。
タスク概要
既存のアグリゲートにストレージを追加する場合は、追加先のRAIDグループをData ONTAPで選
択するか、追加するストレージのターゲットRAIDグループを指定(新しいRAIDグループの作成を
含む)できます。
パーティショニングされたドライブで構成されるRAIDグループにパーティショニングされていないド
ライブが追加されると、新しいドライブがパーティショニングされ、未使用のスペア パーティションが
残ります。新しいドライブをパーティショニングしないようにするには、パーティショニングされていな
い(物理)ドライブだけを含むRAIDグループにそのドライブを追加できます。ただし、サイズの小さ
アグリゲートの管理 | 175
い新しいRAIDグループを作成するよりも、ドライブをパーティショニングするほうが適切な場合が
あります。
アグリゲートにストレージを追加する際は、次のベストプラクティスに従うと、アグリゲートのパフォ
ーマンスが最適化されます。
•
RAIDグループ全体を一度に追加します。
新しいRAIDグループを既存のRAIDグループと完全に同じサイズにする必要はありませんが、
既存のRAIDグループの半分未満のサイズのRAIDグループが存在しないようにしてください。
•
サイズの小さいRAIDグループがすでに存在する場合は、RAIDグループ内の既存の数と同数
以上のデータ ドライブを追加する場合に限り、他のRAIDグループのサイズに合わせてその
RAIDグループのサイズを拡張できます。
•
少数のドライブを既存のRAIDグループに追加しないでください。
この処理を行うと、追加したドライブが過度な割合の新規データのターゲット ドライブとして指定
され、新しいドライブがパフォーマンスのボトルネックになります。
パーティションをプロビジョニングする場合は、両方のパーティションを含むスペア ドライブがノード
に存在しない状態を避けてください。両方のパーティションを含むスペア ディスクがノードに存在し
ない場合にノードのコントローラが停止すると、問題に関する有用な情報(コア ファイル)をテクニカ
ル サポートが利用できなくなる可能性があります。
手順
1. アグリゲートを所有するシステムで使用可能なスペア ストレージを表示します。
storage aggregate show-spare-disks -original-owner node_name
-is-disk-sharedパラメータを使用して、パーティショニングされたドライブだけ、またはパー
ティショニングされていないドライブだけを表示できます。
2. アグリゲートの現在のRAIDグループを表示します。
storage aggregate show-status aggr_name
3. アグリゲートへのストレージの追加をシミュレートします。
storage aggregate add-disks -aggregate aggr_name -diskcount
number_of_disks_or_partitions -simulate true
これにより、実際にストレージをプロビジョニングしなくてもストレージの追加結果を確認できま
す。シミュレートしたコマンドから警告が表示された場合は、コマンドを調整してシミュレーション
を繰り返すことができます。
4. アグリゲートにストレージを追加します。
storage aggregate add-disks -aggregate aggr_name -diskcount
number_of_disks_or_partitions
デフォルト以外のRAIDグループにストレージを追加する場合は、-raidgroupパラメータを使
用できます。
176 | 物理ストレージ管理ガイド
アグリゲートにパーティションを追加する場合は、必要なタイプのパーティションに使用可能な
容量が表示されているディスクを使用する必要があります。たとえば、データ アグリゲートにパ
ーティションを追加する(およびディスク リストを使用する)場合は、使用するディスク名の
Local Data Usable列に使用可能な容量が表示されている必要があります。
5. ストレージが正常に追加されたことを確認します。
storage aggregate show-status -aggregate aggr_name
6. ルート パーティションとデータ パーティションの両方を含む少なくとも1本のスペア ドライブがノ
ードに存在することを確認します。
storage aggregate show-spare-disks -original-owner node_name
両方のパーティションを含むスペア ドライブがノードに存在しない場合にノードのコントローラが
停止すると、問題に関する有用な情報(コア ファイル)をテクニカル サポートが利用できなくな
る可能性があります。
例:アグリゲートへのパーティショニングされたドライブの追加
次の例は、使用可能なスペア パーティションがcl1-s2ノードに複数あることを示します。
cl1-s2::> storage aggregate show-spare-disks -original-owner cl1-s2 -is-disk-shared true
Original Owner: cl1-s2
Pool0
Shared HDD Spares
Disk
--------------------------1.0.1
1.0.2
1.0.3
1.0.4
1.0.8
1.0.9
1.0.10
2 entries were displayed.
Local
Local
Data
Root Physical
Type
RPM Checksum
Usable
Usable
Size Status
----- ------ -------------- -------- -------- -------- -------BSAS
7200 block
753.8GB 73.89GB 828.0GB zeroed
BSAS
7200 block
753.8GB
0B 828.0GB zeroed
BSAS
7200 block
753.8GB
0B 828.0GB zeroed
BSAS
7200 block
753.8GB
0B 828.0GB zeroed
BSAS
7200 block
753.8GB
0B 828.0GB zeroed
BSAS
7200 block
753.8GB
0B 828.0GB zeroed
BSAS
7200 block
0B 73.89GB 828.0GB zeroed
次の例は、data_1アグリゲートが5つのパーティションを含む単一のRAIDグループで構成さ
れていることを示します。
cl1-s2::> storage aggregate show-status -aggregate data_1
Owner Node: cl1-s2
Aggregate: data_1 (online, raid_dp) (block checksums)
Plex: /data_1/plex0 (online, normal, active, pool0)
RAID Group /data_1/plex0/rg0 (normal, block checksums)
Usable Physical
Position Disk
Pool Type
RPM
Size
Size Status
-------- --------------------------- ---- ----- ------ -------- -------- ---------shared
1.0.10
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.5
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.6
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.11
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.0
0
BSAS
7200 753.8GB 828.0GB (normal)
5 entries were displayed.
次の例は、アグリゲートに追加するパーティションを示します。
アグリゲートの管理 | 177
cl1-s2::> storage aggregate add-disks data_1 -diskcount 5 -simulate true
Addition of disks would succeed for aggregate "data_1" on node "cl1-s2". The
following disks would be used to add to the aggregate: 1.0.2, 1.0.3, 1.0.4, 1.0.8, 1.0.9.
次の例では、5つのスペア データ パーティションをアグリゲートに追加します。
cl1-s2::> storage aggregate add-disks data_1 -diskcount 5
次の例は、アグリゲートにデータ パーティションが正常に追加されたことを示します。
cl1-s2::> storage aggregate show-status -aggregate data_1
Owner Node: cl1-s2
Aggregate: data_1 (online, raid_dp) (block checksums)
Plex: /data_1/plex0 (online, normal, active, pool0)
RAID Group /data_1/plex0/rg0 (normal, block checksums)
Usable Physical
Position Disk
Pool Type
RPM
Size
Size Status
-------- --------------------------- ---- ----- ------ -------- -------- ---------shared
1.0.10
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.5
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.6
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.11
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.0
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.2
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.3
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.4
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.8
0
BSAS
7200 753.8GB 828.0GB (normal)
shared
1.0.9
0
BSAS
7200 753.8GB 828.0GB (normal)
10 entries were displayed.
次の例では、ディスク1.0.1全体がスペアとして使用可能な状態のままであることを確認しま
す。
cl1-s2::> storage aggregate show-spare-disks -original-owner cl1-s2 -is-disk-shared true
Original Owner: cl1-s2
Pool0
Shared HDD Spares
Local
Local
Data
Root Physical
Disk
Type
RPM Checksum
Usable
Usable
Size Status
--------------------------- ----- ------ -------------- -------- -------- -------- -------1.0.1
BSAS
7200 block
753.8GB 73.89GB 828.0GB zeroed
1.0.10
BSAS
7200 block
0B 73.89GB 828.0GB zeroed
2 entries were displayed.
関連コンセプト
異機種混在ストレージからのディスク選択の制御方法(153ページ)
Flash Poolアグリゲートとは(136ページ)
RAIDグループのサイジングに関する考慮事項(118ページ)
Flash Poolアグリゲート内に複数のドライブ タイプを混在させる場合のルール(155ページ)
タイプの異なるHDDをアグリゲート内に混在させる場合のルール(154ページ)
使用可能なFlash Poolキャッシュ容量の計算方法(140ページ)
アグリゲートにストレージを追加したときの動作(180ページ)
178 | 物理ストレージ管理ガイド
関連タスク
ミスアライメントのあるスペア パーティションの修正(178ページ)
物理ドライブを使用するアグリゲートのサイズの拡張(172ページ)
関連情報
ネットアップ テクニカル レポート4070:『Flash Pool Design and Implementation Guide』
ミスアライメントのあるスペア パーティションの修正
パーティショニングされたディスクをアグリゲートに追加する場合は、各ノードについて、使用可能
なルート パーティションとデータ パーティションの両方を含むディスクをスペアとして残しておく必要
があります。スペア ディスクがない状態でノードが停止すると、Data ONTAPがコア ファイルを作成
できない可能性があります。
開始する前に
同じノードが所有する同じタイプのディスクには、スペア データ パーティションとスペア ルート パー
ティションの両方が必要です。
手順
1. ノードのスペア パーティションを表示します。
storage aggregate show-spare-disks -original-owner node_name
どのディスクにスペア データ パーティション(spare_data)とスペア ルート パーティション
(spare_root)があるかに注意してください。スペア パーティションのLocal Data Usable列ま
たはLocal Root Usable列には、ゼロ以外の値が表示されます。
2. スペア データ パーティションを含むディスクを、スペア ルート パーティションを含むディスクと交
換します。
storage disk replace -disk spare_data -replacement spare_root -action
start
いずれの方向にもデータを複製できますが、ルート パーティションの複製のほうが短時間で完
了します。
3. ディスク交換の進捗を監視します。
storage aggregate show-status -aggregate aggr_name
4. 交換処理が完了したら、もう一度スペアを表示して、スペア ディスクが存在することを確認しま
す。
storage aggregate show-spare-disks -original-owner node_name
使用可能なスペースを含むスペア ディスクがLocal Data UsableとLocal Root Usableの
下に表示されます。
アグリゲートの管理 | 179
例
ノードc1-01のスペア パーティションを表示して、スペア パーティションがアライメントされてい
ないことを確認します。
c1::> storage aggregate show-spare-disks -original-owner c1-01
Original Owner: c1-01
Pool0
Shared HDD Spares
Local
Local
Data
Root Physical
Disk
Type
RPM Checksum
Usable
Usable
Size
--------------------------- ----- ------ -------------- -------- -------- -------1.0.1
BSAS
7200 block
753.8GB
0B 828.0GB
1.0.10
BSAS
7200 block
0B 73.89GB 828.0GB
ディスク交換ジョブを開始します。
c1::> storage disk replace -disk 1.0.1 -replacement 1.0.10 -action start
交換処理が終了するのを待つ間に、処理の進捗を表示します。
c1::> storage aggregate show-status -aggregate aggr0_1
Owner Node: c1-01
Aggregate: aggr0_1 (online, raid_dp) (block checksums)
Plex: /aggr0_1/plex0 (online, normal, active, pool0)
RAID Group /aggr0_1/plex0/rg0 (normal, block checksums)
Position
-------shared
progress)
shared
shared
shared
shared
shared
Usable Physical
Disk
Pool Type
RPM
Size
Size Status
--------------------------- ---- ----- ------ -------- -------- ---------1.0.1
0
BSAS
7200 73.89GB 828.0GB (replacing, copy in
1.0.10
1.0.0
1.0.11
1.0.6
1.0.5
0
0
0
0
0
BSAS
BSAS
BSAS
BSAS
BSAS
7200
7200
7200
7200
7200
73.89GB
73.89GB
73.89GB
73.89GB
73.89GB
828.0GB
828.0GB
828.0GB
828.0GB
828.0GB
(copy 63% completed)
(normal)
(normal)
(normal)
(normal)
交換処理が完了したら、スペア ディスクが存在することを確認します。
ie2220::> storage aggregate show-spare-disks -original-owner c1-01
Original Owner: c1-01
Pool0
Shared HDD Spares
Local
Local
Data
Root Physical
Disk
Type
RPM Checksum
Usable
Usable
Size
--------------------------- ----- ------ -------------- -------- -------- -------1.0.1
BSAS
7200 block
753.8GB 73.89GB 828.0GB
180 | 物理ストレージ管理ガイド
アグリゲートにストレージを追加したときの動作
デフォルトでは、新しいドライブまたはアレイLUNは最後に作成されたRAIDグループに追加され、
そのRAIDグループが最大サイズに達すると 新しいRAIDグループが作成されます。あるいは、ス
トレージの追加先RAIDグループを指定することもできます。
アグリゲートを作成したり、アグリゲートにストレージを追加する場合、Data ONTAPでは、各RAID
グループのドライブまたはアレイLUNの数がその最大数に達すると新しいRAIDグループが作成さ
れます。最後に作成されたRAIDグループに含まれるドライブまたはアレイLUNの数が、アグリゲ
ートの最大RAIDグループ サイズよりも少ないとします。この場合、アグリゲートに追加されたすべ
てのストレージは、指定されたRAIDグループ サイズに達するまで、この最後のRAIDグループに
追加されます。
アグリゲートのRAIDグループ サイズを増やしても、新しいドライブまたはアレイLUNは最後に作
成されたRAIDグループにしか追加されません。以前に作成されたRAIDグループのサイズは、明
示的にストレージを追加しないかぎり、現在のままで変更されません。
グループ内の既存のドライブよりも大容量のドライブをRAIDグループに追加すると、新しいドライ
ブの容量は他のドライブと同じサイズに制限されます。
注: RAIDグループは、可能なかぎり同種のドライブで構成することを推奨します。必要であれ
ば、タイプの違うドライブはあとで適切なドライブに交換できます。
関連タスク
物理ドライブを使用するアグリゲートのサイズの拡張(172ページ)
ルートデータのパーティショニングを使用するアグリゲートのサイズの拡張(174ページ)
物理SSDを使用するFlash Poolアグリゲートの作成
Flash Poolアグリゲートを作成するには、HDD RAIDグループで構成された既存のアグリゲートで
該当する機能を有効にし、そのアグリゲートに1つまたは複数のSSD RAIDグループを追加しま
す。これにより、SSD RAIDグループ(SSDキャッシュ)とHDD RAIDグループの2セットのRAIDグル
ープが対象のアグリゲート用に作成されます。
開始する前に
•
Flash Poolアグリゲートに変換する、HDDで構成された有効なアグリゲートを特定しておく必要
があります。
•
アグリゲートに関連付けられたボリュームが書き込みキャッシュに対応しているかどうかを確認
し、対応していない場合は必要な手順を実行して問題を解決しておく必要があります。
•
追加するSSDを決めておく必要があります。これらのSSDはFlash Poolアグリゲートの作成先と
なるノードが所有している必要があります。
アグリゲートの管理 | 181
•
追加するSSDとアグリゲート内の既存のHDDの両方について、チェックサム方式を確認してお
く必要があります。
•
追加するSSDの数を決め、SSD RAIDグループに最適なRAIDグループ サイズを確認しておく
必要があります。
SSDキャッシュ内で使用するRAIDグループが少ないほど、必要なパリティ ディスク数が少なく
なりますが、RAIDグループを拡張するとRAID-DPが必要になります。
•
SSDキャッシュで使用するRAIDレベルを決めておく必要があります。
•
システムの最大キャッシュ サイズを決めて、アグリゲートにSSDキャッシュを追加してもそのサ
イズを超えないことを確認しておく必要があります。
•
Flash Poolアグリゲートの構成要件を確認しておく必要があります。
タスク概要
アグリゲートにSSDキャッシュを追加してFlash Poolアグリゲートを作成したあとで、SSDキャッシュ
を削除してアグリゲートを元の構成に戻すことはできません。
SSDキャッシュのRAIDレベルは、デフォルトでは、HDD RAIDグループのRAIDレベルと同じにな
ります。このデフォルトの設定は、最初のSSD RAIDグループを追加するときにraidtypeオプショ
ンを指定することで変更できます。
手順
1. アグリゲートをFlash Poolアグリゲートとして使用できるように指定します。
storage aggregate modify -aggregate aggr_name -hybrid-enabled true
この手順が正常に完了しない場合は、対象のアグリゲートが書き込みキャッシュに対応してい
るかどうかを確認してください。
2. storage aggregate addコマンドを使用して、アグリゲートにSSDを追加します。
SSDは、IDを指定するか、diskcountパラメータとdisktypeパラメータを使用して指定できま
す。
HDDとSSDでチェックサム方式が異なる場合やチェックサムが混在したアグリゲートの場合は、
checksumstyleパラメータを使用して、アグリゲートに追加するディスクのチェックサム方式を
指定する必要があります。
SSDキャッシュに対して別のRAIDタイプを指定するには、raidtypeパラメータを使用します。
キャッシュRAIDグループのサイズを、使用しているRAIDタイプのデフォルトと異なるサイズに
する場合は、-cache-raid-group-sizeパラメータを使用してこの段階で変更する必要があ
ります。
関連コンセプト
Flash Poolアグリゲートとは(136ページ)
182 | 物理ストレージ管理ガイド
Flash Poolアグリゲートを使用するための要件(137ページ)
Flash PoolキャッシュのRAIDタイプとスペアの管理に関する考慮事項(138ページ)
使用可能なFlash Poolキャッシュ容量の計算方法(140ページ)
関連タスク
SSDストレージ プールを使用するFlash Poolアグリゲートの作成(182ページ)
Flash Poolの候補と最適なキャッシュ サイズの確認(184ページ)
Flash Poolアグリゲートでボリュームが書き込みキャッシュに対応しているかどうかの確認とその
有効化(188ページ)
パーティショニングされていないドライブを使用するアグリゲートの作成(168ページ)
関連情報
ネットアップ テクニカル レポート4070:『Flash Pool Design and Implementation Guide』
SSDストレージ プールを使用するFlash Poolアグリゲートの作成
SSDストレージ プールを使用するFlash Poolアグリゲートを作成するには、HDD RAIDグループで
構成された既存のアグリゲートで該当する機能を有効にし、そのアグリゲートに1つまたは複数の
SSDストレージ プールの割り当て単位を追加します。
開始する前に
•
Flash Poolアグリゲートに変換する、HDDで構成された有効なアグリゲートを特定しておく必要
があります。
•
アグリゲートに関連付けられたボリュームが書き込みキャッシュに対応しているかどうかを確認
し、対応していない場合は必要な手順を実行して問題を解決しておく必要があります。
•
このFlash PoolアグリゲートにSSDキャッシュを提供するためのSSDストレージ プールを作成し
ておく必要があります。
使用するストレージ プールのすべての割り当て単位が、Flash Poolアグリゲートの所有者であ
るノードに所有されている必要があります。
•
アグリゲートに追加するキャッシュの容量を決めておく必要があります。
アグリゲートにキャッシュを追加するには、割り当て単位を使用します。ストレージ プールに余
裕がある場合は、ストレージ プールにSSDを追加することによって割り当て単位のサイズをあ
とから拡張できます。
•
SSDキャッシュで使用するRAIDタイプを決めておく必要があります。
SSDストレージ プールからアグリゲートにキャッシュを追加したあとで、キャッシュRAIDグルー
プのRAIDタイプを変更することはできません。
•
システムの最大キャッシュ サイズを決めて、アグリゲートにSSDキャッシュを追加してもそのサ
イズを超えないことを確認しておく必要があります。
アグリゲートの管理 | 183
storage pool showコマンドを使用して、合計キャッシュ サイズに追加されるキャッシュの容
量を確認できます。
•
Flash Poolアグリゲートの構成要件を確認しておく必要があります。
タスク概要
キャッシュのRAIDタイプを、HDD RAIDグループと異なるタイプにする場合は、SSDの容量を追加
するときにキャッシュのRAIDタイプを指定する必要があります。アグリゲートにSSDの容量を追加
したあとで、キャッシュのRAIDタイプを変更することはできません。
アグリゲートにSSDキャッシュを追加してFlash Poolアグリゲートを作成したあとで、SSDキャッシュ
を削除してアグリゲートを元の構成に戻すことはできません。
手順
1. アグリゲートをFlash Poolアグリゲートとして使用できるように指定します。
storage aggregate modify -aggregate aggr_name -hybrid-enabled true
この手順が正常に完了しない場合は、対象のアグリゲートが書き込みキャッシュに対応してい
るかどうかを確認してください。
2. 使用可能なSSDストレージ プールの割り当て単位を表示します。
storage pool show-available-capacity
3. アグリゲートにSSDの容量を追加します。
storage aggregate add aggr_name -storage-pool sp_name -allocation-units
number_of_units
キャッシュのRAIDタイプを、HDD RAIDグループと異なるタイプにする場合は、このコマンドを
入力するときにraidtypeパラメータを使用してタイプを変更する必要があります。
新しいRAIDグループを指定する必要はありません。Data ONTAPでは、HDD RAIDグループと
は別のRAIDグループにSSDキャッシュが自動的に配置されます。
キャッシュのRAIDグループ サイズを設定することはできません。このサイズは、ストレージ プ
ール内のSSDの数によって決まります。
キャッシュがアグリゲートに追加され、アグリゲートがFlash Poolアグリゲートになります。アグリ
ゲートに追加された各割り当て単位は独自のRAIDグループになります。
4. オプション: SSDキャッシュが存在すること、およびそのサイズを確認します。
storage aggregate show aggr_name
キャッシュのサイズは、Total Hybrid Cache Sizeの下に表示されます。
184 | 物理ストレージ管理ガイド
関連コンセプト
Flash Pool SSDパーティショニングでFlash Poolアグリゲートのキャッシュ割り当ての柔軟性を拡
張する方法(144ページ)
Flash Poolアグリゲートとは(136ページ)
Flash Poolアグリゲートを使用するための要件(137ページ)
Flash PoolキャッシュのRAIDタイプとスペアの管理に関する考慮事項(138ページ)
使用可能なFlash Poolキャッシュ容量の計算方法(140ページ)
関連タスク
物理SSDを使用するFlash Poolアグリゲートの作成(180ページ)
パーティショニングされていないドライブを使用するアグリゲートの作成(168ページ)
Flash Poolの候補と最適なキャッシュ サイズの確認(184ページ)
Flash Poolアグリゲートでボリュームが書き込みキャッシュに対応しているかどうかの確認とその
有効化(188ページ)
関連情報
ネットアップ テクニカル レポート4070:『Flash Pool Design and Implementation Guide』
Flash Poolの候補と最適なキャッシュ サイズの確認
既存のアグリゲートをFlash Poolアグリゲートに変換する前に、アグリゲートがI/Oバウンドであるか
どうかや、ワークロードと予算に応じた最適なFlash Poolのキャッシュ サイズを確認できます。ま
た、既存のFlash Poolアグリゲートのキャッシュ サイズが正しく設定されているかどうかを確認する
こともできます。
開始する前に
分析するアグリゲートの負荷がピークになるおおよその時間帯を確認しておく必要があります。
手順
1. advancedモードに切り替えます。
set advanced
2. 既存のアグリゲートがFlash Poolアグリゲートへの変換に適しているかどうかを確認する必要が
ある場合は、負荷のピーク時におけるアグリゲート内のディスクのビジー率と、それがレイテン
シにどのような影響を及ぼすかを確認します。
statistics show-periodic -object disk:raid_group -instance
raid_group_name -counter disk_busy|user_read_latency -interval 1 iterations 60
アグリゲートの管理 | 185
Flash Poolキャッシュを追加してレイテンシを短縮する処理がこのアグリゲートに適しているかど
うかを判断することができます。
例
アグリゲート「aggr1」の最初のRAIDグループの統計情報を表示するコマンドの例を次に示しま
す。
statistics show-periodic -object disk:raid_group -instance /aggr1/
plex0/rg0 -counter disk_busy|user_read_latency -interval 1 -iterations
60
3. AWAを起動します。
system node run -node node_name wafl awa start aggr_name
指定されたアグリゲートに関連付けられているボリュームのワークロード データの収集が開始
されます。
4. advancedモードを終了します。
set admin
5. ピーク負荷が間隔をあけて複数回発生するまでAWAの実行を許可します。
AWAは、期間内で最長1週間にわたってデータを分析します。複数の週にわたってAWAを実行
すると、最初の週に収集されたデータのみレポートされます。キャッシュ サイズの推定値は、デ
ータ収集期間内に確認された最も高い負荷に基づいています。データ収集期間全体の負荷が
高くなくてもかまいません。
AWAは、指定されたアグリゲートに関連付けられているボリュームのワークロードの統計情報
を収集します。
6. advancedモードに切り替えます。
set advanced
7. ワークロードの分析を表示します。
system node run -node node_name wafl awa print
AWAには、ワークロードの統計情報とFlash Poolの最適なキャッシュ サイズが表示されます。
8. AWAを停止します。
system node run -node node_name wafl awa stop
すべてのワークロード データがフラッシュされ、分析に使用できなくなります。
9. advancedモードを終了します。
set admin
186 | 物理ストレージ管理ガイド
例
次の例では、アグリゲート「aggr1」でAWAが実行されました。AWAを約3日間(10分間隔で
442回)実行したあとのawa printコマンドの出力を次に示します。
### FP AWA Stats ###
Basic Information
Aggregate
Current-time
Start-time
Total runtime (sec)
Interval length (sec)
Total intervals
In-core Intervals
aggr1
Mon Jul 28 16:02:21 CEST 2014
Thu Jul 31 12:07:07 CEST 2014
264682
600
442
1024
Summary of the past 442 intervals
max
39.695 MB/s
17.581 MB/s
92 %
83 %
114 GiB
82 %
82 %
Read Throughput
Write Throughput
Cacheable Read (%)
Cacheable Write (%)
Max Projected Cache Size
Projected Read Offload
Projected Write Offload
Summary Cache Hit Rate vs. Cache Size
Size
Read Hit
Write Hit
20%
34
35
40%
51
44
60%
66
53
80%
75
62
100%
82
82
The entire results and output of Automated Workload Analyzer (AWA)
are
estimates. The format, syntax, CLI, results and output of AWA may
change in future Data ONTAP releases. AWA reports the projected
cache
size in capacity. It does not make recommendations regarding the
number of data SSDs required. Please follow the guidelines for
configuring and deploying Flash Pool; that are provided in tools and
collateral documents. These include verifying the platform cache
size
maximums and minimum number and maximum number of data SSDs.
### FP AWA Stats End ###
________________________________________
この結果には次の情報が表示されます。
アグリゲートの管理 | 187
•
Read ThroughputとWrite Throughput
スループットの計測値は、より多くのトラフィックを受信しているアグリゲートの特定に役
立ちます。これらの数値は、アグリゲートがI/Oバウンドであるかどうかを示すものではあ
りません。
•
Max Projected Cache Size
AWAの実行中にディスクから要求された、対象となる各データ ブロックをSSDキャッシュ
が保持するサイズです。キャッシュに含まれていないデータが要求される可能性がある
ため、これは今後のすべてのI/O処理に対するヒットを保証するものではありません。た
だし、AWAの実行中のワークロードが一般的なワークロードであり、予算の範囲内であ
る場合は、これがFlash Poolキャッシュに最適なサイズになります。
•
Projected Read OffloadとProjected Write Offload
ディスクにアクセスせずに最適なサイズのFlash Poolキャッシュで処理される読み取り処
理と書き込み処理のおおよその割合(見込まれるキャッシュ ヒット率)です。この数値は、
アグリゲートをFlash Poolアグリゲートに変換することで見込まれるパフォーマンスの向上
に関連しますが、正確な予測値ではありません。
•
Summary Cache Hit Rate vs. Cache Size
この表は、Max Projected Cache SizeからSSDキャッシュのサイズを縮小することで
パフォーマンスにどのような影響があるかを予測する際に役立ちます。これらの値はワ
ークロードに大きく左右されます。キャッシュ上の古いデータに再びアクセスするかどうか
に応じて、キャッシュ サイズ削減の影響は大きくなるか、またはないに等しくなります。こ
の表を使用すると、ワークロードと予算に応じた「最適な」コストとパフォーマンスのバラン
スを見つけ出すことができます。
関連タスク
Flash Poolアグリゲートでボリュームが書き込みキャッシュに対応しているかどうかの確認とその
有効化(188ページ)
関連情報
ネットアップ テクニカル レポート4070:『Flash Pool Design and Implementation Guide』
188 | 物理ストレージ管理ガイド
Flash Poolアグリゲートでボリュームが書き込みキャッシュに対応し
ているかどうかの確認とその有効化
アグリゲートに関連付けられているFlexVolが書き込みキャッシュに対応しているかどうかを確認す
ると、高いパフォーマンスが求められるボリュームで、アグリゲートをFlash Poolアグリゲートに変換
することで最大限のパフォーマンス向上を実現できるかどうかを判断できます。
タスク概要
Flash Poolアグリゲートでは、読み取りキャッシュと書き込みキャッシュの2種類のキャッシュを採用
しています。読み取りキャッシュはすべてのボリュームで使用できます。書き込みキャッシュもほと
んどのボリュームで使用できますが、内部IDの競合が原因で書き込みキャッシュが無効になって
いるボリュームもあります。書き込みキャッシュ対応を確認すると、Flash Poolアグリゲートへの変
換に適したアグリゲートを特定するのに役立ちます。
この手順を実行するためにSSDは必要ありません。
手順
1. アグリゲートでFlash Pool機能を有効にします。
storage aggregate modify aggr_name -hybrid-enabled true
2. 手順1の結果に基づいて、該当する処理を実行します。
状況または条件
操作
Flash Pool機能が有効になる
Flash Pool機能を無効に戻します。
storage aggregate modify aggr_name -hybridenabled false
これで、このタスクは完了です。アグリゲート内のすべてのボリューム
が書き込みキャッシュの対象になります。
アグリゲートをFlash Poolア
グリゲートに変換できないこ
とを示すエラー メッセージが
表示される
対応していないボリュームを特定します。
volume show -volume * -fields hybrid-cache-writecaching-ineligibility-reason -aggregate aggr_name
アグリゲート内の各ボリュームが表示され、対応していないボリューム
についてはその理由が表示されます。対応しているボリュームにはハ
イフン(「-」)が表示されます。
3. 対応していないボリュームをどうするかに応じて、該当する処理を実行します。
アグリゲートの管理 | 189
状況または条件
操作
対応していないボリュームの
書き込みキャッシュを有効に
する必要がない
これで、このタスクは完了です。アグリゲートをFlash Poolアグリゲートに
変換するときに-force-hybrid-enabledオプションを使用する必
要があります。
対応していないボリュームの
書き込みキャッシュを有効に
する必要がある
IDが競合している一連のボリュームのうち1つだけ残して残りをすべて
別のアグリゲートに移動(コピーして削除)し、その後元のアグリゲート
に戻します。IDが競合するボリュームがなくなるまでこの処理を続ける
必要があります。
IDの競合の例
IDが競合している場合のシステム出力の例を次に示します。
clus1::> vol show -volume * -fields hybrid-cache-write-cachingineligibility-reason -aggregate aggr1
(volume show)
vserver volume
hybrid-cache-write-caching-ineligibility-reason
------- -------- ----------------------------------------------vs0
root_vs0 vs0
vol1
vs0
vol2
"ID Collision(27216)"
vs0
vol3
"ID Collision(27216)"
4 entries were displayed.
関連タスク
Flash Poolの候補と最適なキャッシュ サイズの確認(184ページ)
Flash Poolアグリゲート内のRAIDグループのRAIDタイプの変更
SSD RAIDグループのパリティのオーバーヘッドを削減する必要がある場合は、Flash Poolアグリ
ゲートのSSDキャッシュを、HDD RAIDグループとは異なるRAIDタイプに設定できます。
開始する前に
•
Flash PoolキャッシュのRAIDタイプとスペアの管理に関する考慮事項について理解しておく必
要があります。
•
SSDキャッシュのRAIDタイプをRAID-DPからRAID 4に変更する場合は、この変更処理を行っ
てもキャッシュ サイズの制限を超えないことを確認しておく必要があります。
190 | 物理ストレージ管理ガイド
タスク概要
SSDストレージ プールを使用するFlash PoolアグリゲートのSSDキャッシュのRAIDタイプを変更で
きるのは、最初のストレージ プールの割り当て単位をそのアグリゲートに追加する場合のみです。
SSDキャッシュとHDD RAIDグループでRAIDタイプが異なる場合、Flash PoolアグリゲートのRAID
タイプはmixedとみなされ、アグリゲートのRAIDタイプはmixed_raid_typeと表示されます。この
場合は、各RAIDグループのRAIDタイプも表示されます。
Flash Poolアグリゲート内のすべてのHDD RAIDグループのRAIDタイプはすべて同じ(RAID-DP)
にする必要があります。
手順
1. Flash PoolアグリゲートのSSDキャッシュまたはHDD RAIDグループのRAIDタイプを変更しま
す。
storage aggregate modify -aggregate aggr_name -raidtype raid_type disktype disk_type
SSDキャッシュのRAIDタイプを変更するには、-disktype SSDを使用します。HDD RAIDグル
ープのRAIDタイプを変更するには、HDD RAIDグループに含まれるいずれかのディスク タイ
プを指定します。
2. Flash Poolアグリゲート内のRAIDグループを確認します。
storage aggregate show -aggregate aggr_name
storage aggregate show-statusコマンドを使用して、Flash PoolアグリゲートのHDD
RAIDグループおよびSSDキャッシュのRAIDタイプに関する詳細を確認することもできます。
例
この例では、「test」という名前の物理SSDを使用するFlash PoolアグリゲートのHDD RAIDグ
ループとSSDキャッシュのRAIDタイプが最初はどちらもRAID-DPになっています。このSSD
キャッシュのRAIDタイプをRAID 4に変更し、Flash PoolアグリゲートのRAIDタイプをmixedに
変換するコマンドの例を次に示します。
storage aggregate modify -aggregate test -raidtype raid4 -disktype SSD
次に、storage aggregate show-statusコマンドの出力を示します。アグリゲートの
RAIDタイプはmixedで、HDD RAIDグループのRAIDタイプがRAID-DP、SSDキャッシュの
RAIDタイプがRAID 4になっています。
storage aggregate show-status test
Aggregate test (online, mixed_raid_type, hybrid) (block checksums)
Plex /test/plex0 (online, normal, active, pool0)
RAID Group /test/plex0/rg0 (normal, block checksums, raid-dp)
Usable Physical
Position Disk
Pool Type
RPM
Size
Size Status
-------- --------------------------- ---- ----- ------ -------- -------- ---------dparity 1.2.3
0
BSAS
7200 827.7GB 828.0GB (normal)
parity
1.2.4
0
BSAS
7200 827.7GB 828.0GB (normal)
data
1.2.5
0
BSAS
7200 827.7GB 828.0GB (normal)
data
1.2.6
0
BSAS
7200 827.7GB 828.0GB (normal)
アグリゲートの管理 | 191
data
1.2.8
0
BSAS
7200
827.7GB
828.0GB (normal)
RAID Group /test/plex0/rg1 (normal, block checksums, raid4)
Usable Physical
Position Disk
Pool Type
RPM
Size
Size Status
-------- --------------------------- ---- ----- ------ -------- -------- ---------parity
1.3.3
0
SSD
- 82.59GB 82.81GB (normal)
data
1.4.0
0
SSD
- 82.59GB 82.81GB (normal)
data
1.4.1
0
SSD
- 82.59GB 82.81GB (normal)
data
1.4.2
0
SSD
- 82.59GB 82.81GB (normal)
関連コンセプト
Flash PoolキャッシュのRAIDタイプとスペアの管理に関する考慮事項(138ページ)
関連情報
NetApp Hardware Universe
アグリゲートのドライブとRAIDグループの情報の確認
一部のアグリゲート管理作業を行うには、アグリゲートを構成するドライブのタイプ、サイズ、チェッ
クサム、ステータス、ドライブを他のアグリゲートと共有するかどうか、およびRAIDグループのサイ
ズと構成を確認しておく必要があります。
手順
1. アグリゲートのドライブをRAIDグループ別に表示します。
storage aggregate show-status aggr_name
アグリゲート内の各RAIDグループのドライブが表示されます。
ドライブ(データ、パリティ、ダブルパリティ)のRAIDタイプはPosition列で確認できます。
Position列にsharedと表示されている場合は、ドライブが共有されます。HDDの場合は、パ
ーティショニングされたディスクです。SSDの場合は、ストレージ プールの一部です。
例:SSDストレージ プールとデータ パーティションを使用するFlash Poolアグリゲート
cluster1::> storage aggregate show-status nodeA_fp_1
Owner Node: cluster1-a
Aggregate: nodeA_fp_1 (online, mixed_raid_type, hybrid) (block checksums)
Plex: /nodeA_fp_1/plex0 (online, normal, active, pool0)
RAID Group /nodeA_fp_1/plex0/rg0 (normal, block checksums, raid_dp)
Usable Physical
Position Disk
Pool Type
RPM
Size
Size
-------- --------------------------- ---- ----- ------ -------- -------shared
2.0.1
0
SAS
10000 472.9GB 547.1GB
shared
2.0.3
0
SAS
10000 472.9GB 547.1GB
shared
2.0.5
0
SAS
10000 472.9GB 547.1GB
Status
------(normal)
(normal)
(normal)
192 | 物理ストレージ管理ガイド
shared
shared
shared
2.0.7
2.0.9
2.0.11
0
0
0
SAS
SAS
SAS
10000
10000
10000
472.9GB
472.9GB
472.9GB
547.1GB (normal)
547.1GB (normal)
547.1GB (normal)
RAID Group /nodeA_flashpool_1/plex0/rg1 (normal, block checksums, raid4) (Storage
Pool: SmallSP)
Usable Physical
Position Disk
Pool Type
RPM
Size
Size Status
-------- --------------------------- ---- ----- ------ -------- -------- ------shared
2.0.13
0
SSD
- 186.2GB 745.2GB (normal)
shared
2.0.12
0
SSD
- 186.2GB 745.2GB (normal)
8 entries were displayed.
関連コンセプト
ルートデータのパーティショニングの概要(32ページ)
Flash Pool SSDパーティショニングでFlash Poolアグリゲートのキャッシュ割り当ての柔軟性を拡
張する方法(144ページ)
HAペアでのアグリゲートの所有権の切り替え
HAペアのノード間で、アグリゲートからのデータ提供を中断せずに、アグリゲートの所有権を切り
替えることができます。
HAペアでは、両方のノードのディスクまたはアレイLUNが物理的に相互接続され、それぞれのデ
ィスクまたはアレイLUNはどちらか一方のノードで所有されます。テイクオーバーの発生時にはデ
ィスクの所有権が一時的に切り替わりますが、アグリゲートの再配置処理では、アグリゲートに含
まれるすべてのディスクまたはアレイLUNの所有権が永続的(負荷分散を行う場合など)または一
時的(テイクオーバー処理など)に一方のノードからもう一方のノードに切り替わります。所有権の
切り替え時に、データ コピー処理やディスクまたはアレイLUNの物理的な移動は行われません。
アグリゲートの再配置の仕組み
アグリゲートの再配置では、HA構成の利点を活かして、ストレージ アグリゲートの所有権をHAペ
ア内で移動します。アグリゲートの再配置では、フェイルオーバー時のパフォーマンスを最適化す
るだけでなく、以前はコントローラ フェイルオーバーを必要としていた運用と保守に関する機能を
容易にすることで、ストレージ管理の柔軟性を向上します。
アグリゲートの再配置は、計画的なフェイルオーバー(無停止のソフトウェア アップグレードなど)
の際の停止時間を短縮するために、テイクオーバーを手動で開始したときは自動的に実行されま
す。パフォーマンスの負荷分散、システムの保守、および無停止のコントローラ アップグレードの
ためのフェイルオーバーとは関係なく、アグリゲートの再配置を手動で開始できます。ただし、アグ
リゲートの再配置処理を使用してルート アグリゲートの所有権を移動することはできません。
HAペアでアグリゲートaggr_1の所有権をノード1からノード2に切り替える例を次に示します。
アグリゲートの管理 | 193
アグリゲートに含まれるボリューム数に対応できるデスティネーション ノードであれば、アグリゲー
トの再配置処理で1つまたは複数のSFOアグリゲートの所有権を切り替えることができます。各ア
グリゲートへのアクセスの中断は短時間で済み、それらの所有権情報が1つずつ変更されます。
テイクオーバーを手動で開始したあとは、テイクオーバーの実行時にアグリゲートの再配置が自動
的に実行されます。対象のコントローラをテイクオーバーする前に、各コントローラのアグリゲート
の所有権がパートナー コントローラに一度に1つずつ移動されます。ギブバックが開始されると、所
有権は元のノードに自動的に戻されます。テイクオーバーの実行時にアグリゲートの再配置が実
行されないようにするには、storage failover takeoverコマンドで‑bypass‑optimizationパ
ラメータを使用します。
アグリゲートの再配置とSnapDiffを有効にしたInfinite Volume
SnapDiffを有効にしたInfinite Volumeで使用されているアグリゲートについては、アグリゲートの再
配置を行う際に追加の手順が必要になります。具体的には、デスティネーション ノードにネームス
ペース ミラー コンスティチュエントがあることを確認し、ネームスペース コンスティチュエントを含む
アグリゲートを再配置するかどうかを判断する必要があります。
Clustered Data ONTAP 8.3 Infinite Volumes Management Guide
関連タスク
Infinite Volumeで使用されるアグリゲートの所有権の切り替え(164ページ)
ルートデータのパーティショニングがアグリゲートの再配置に及ぼす影響
ルートデータのパーティショニング(共有ディスクとも呼ばれます)を使用するプラットフォーム モデ
ルがある場合は、物理(非共有)ディスクと同様にアグリゲートの再配置処理が実行されます。
アグリゲートの再配置時にコンテナ ディスクの所有権がデスティネーション ノードに切り替えられ
るのは、対象の物理ディスク上のすべてのパーティションの所有権がデスティネーション ノードに
194 | 物理ストレージ管理ガイド
移行される場合のみです。この所有権の変更は、永続的なアグリゲートの再配置処理が実行され
る場合のみ発生します。
ネゴシエート ストレージ フェイルオーバーのテイクオーバーまたはギブバックの際に発生する所有
権の変更は一時的なものです。
アグリゲートの所有権の切り替え
アグリゲートの所有権の切り替えは、HAペアのノード間でのみ実行できます。
タスク概要
•
アグリゲートの再配置処理では、ボリューム数の制限がプログラムで検証されるため、手動で
チェックする必要はありません。
ボリューム数がサポートされる上限を超えると、アグリゲートの再配置処理が失敗し、関連する
エラー メッセージが表示されます。
•
ソース ノードまたはデスティネーション ノードでシステムレベルの処理を実行中のときは、アグ
リゲートの再配置を開始しないでください。同様に、アグリゲートの再配置の実行中にシステム
レベルの処理を開始することも避けてください。
システムレベルの処理には次のものが含まれます。
◦ テイクオーバー
◦ ギブバック
◦ シャットダウン
◦ 別のアグリゲートの再配置処理
◦ ディスク所有権の変更
◦ アグリゲートまたはボリュームの設定処理
◦ ストレージ コントローラの交換
◦ Data ONTAPのアップグレード
◦ Data ONTAPのリバート
•
MetroCluster構成を使用する場合は、ディザスタ リカバリ処理(スイッチオーバー、復旧、また
はスイッチバック)の実行中にアグリゲートの再配置を開始しないでください。
•
MetroCluster構成を使用する場合に、切り替えられたアグリゲートでアグリゲートの再配置を開
始すると、DRパートナーのボリューム数の制限を超えるため、処理が失敗する可能性がありま
す。
•
壊れているアグリゲートや保守中のアグリゲートでは、アグリゲートの再配置を開始しないでく
ださい。
アグリゲートの管理 | 195
•
オールフラッシュで最適化されたFAS80xxシリーズ システムの場合、HAペアの両方のノードが
オールフラッシュで最適化されている必要があります。
オールフラッシュで最適化された構成でサポートされるのはSSDだけであるため、HAペアの一
方のノードにHDDまたはアレイLUNが含まれている(したがって、ノードがオールフラッシュで
最適化されていない)場合は、そのノードからオールフラッシュで最適化されているノードへの
アグリゲートの再配置を実行することはできません。
•
ソース ノードがSnapDiffを有効にしたInfinite Volumeで使用されている場合は、アグリゲートの
再配置を開始する前に追加の手順を実行し、そのあとに特定の方法で再配置を実行する必要
があります。
具体的には、デスティネーション ノードにネームスペース ミラー コンスティチュエントがあること
を確認し、ネームスペース コンスティチュエントを含むアグリゲートを再配置するかどうかを判
断する必要があります。
Clustered Data ONTAP 8.3 Infinite Volumes Management Guide
•
アグリゲートの再配置を開始する前に、ソース ノードとデスティネーション ノードにコア ダンプを
保存する必要があります。
手順
1. ノードのアグリゲートを表示して、移動するアグリゲートがオンラインの良好な状態になっている
ことを確認します。
storage aggregate show -node source-node
例
次のコマンドの出力では、クラスタ内の4つのノードにある6つのアグリゲートが表示され、どの
アグリゲートもオンラインになっています。ノード1とノード3がHAペアになっており、ノード2とノ
ード4もHAペアになっています。
cluster::> storage aggregate show
Aggregate
Size Available Used% State
#Vols Nodes RAID Status
--------- -------- --------- ----- ------- ------ ------ ----------aggr_0
239.0GB
11.13GB
95% online
1 node1 raid_dp,
normal
aggr_1
239.0GB
11.13GB
95% online
1 node1 raid_dp,
normal
aggr_2
239.0GB
11.13GB
95% online
1 node2 raid_dp,
normal
aggr_3
239.0GB
11.13GB
95% online
1 node2 raid_dp,
normal
aggr_4
239.0GB
238.9GB
0% online
5 node3 raid_dp,
normal
aggr_5
239.0GB
239.0GB
0% online
4 node4 raid_dp,
normal
6 entries were displayed.
2. 次のコマンドを実行して、アグリゲートの再配置を開始します。
196 | 物理ストレージ管理ガイド
storage aggregate relocation start -aggregate-list aggregate-1,
aggregate-2... -node source-node -destination destination-node
アグリゲートaggr_1およびaggr_2をノード1からノード3に移動するコマンドを次に示します。ノー
ド3はノード1のHAパートナーです。アグリゲートはHAペア内でのみ移動できます。
cluster::> storage aggregate relocation start -aggregate-list aggr_1,
aggr_2 -node node1 -destination node3
Run the storage aggregate relocation show command to check relocation
status.
node1::storage aggregate>
3. storage aggregate relocation showコマンドを使用して、アグリゲートの再配置の進捗
を監視します。
storage aggregate relocation show -node source-node
例
次のコマンドの出力は、アグリゲートをノード3に移動中であることを示しています。
cluster::> storage aggregate relocation show -node node1
Source Aggregate
Destination
Relocation Status
------ ----------- ------------- -----------------------node1
aggr_1
node3
In progress, module: wafl
aggr_2
node3
Not attempted yet
2 entries were displayed.
node1::storage aggregate>
再配置が完了すると、このコマンドの出力に表示される各アグリゲートの再配置の状態がDone
になります。
関連タスク
Infinite Volumeで使用されるアグリゲートの所有権の切り替え(164ページ)
アグリゲートの再配置用のコマンド
Data ONTAPには、HAペアでアグリゲートの所有権を切り替えるための固有のコマンドが用意され
ています。
状況
使用するコマンド
アグリゲートの再配置プロセスを開始する
storage aggregate relocation start
アグリゲートの再配置プロセスを監視する
storage aggregate relocation show
アグリゲートの管理 | 197
関連情報
Clustered Data ONTAP 8.3 Commands: Manual Page Reference
storage aggregate relocation startコマンドの主なパラメータ
ここでは、HAペアでアグリゲートの所有権を切り替える際に使用するstorage aggregate
relocation startコマンドの主なパラメータを示します。
パラメータ
説明
-node nodename
アグリゲートを現在所有しているノードの名前
を指定します。
-destination nodename
アグリゲートを再配置するデスティネーション
ノードを指定します
-aggregate-list aggregate name
ソース ノードからデスティネーション ノードに再
配置するアグリゲート名のリストを指定しま
す。
(このパラメータではワイルドカードを使用でき
ます。)
-override-vetoes true|false
再配置処理の実行時に拒否のチェックを無視
するかどうかを指定します。
このオプションを使用すると、クライアントの停
止が長引いたり、処理の完了後にアグリゲート
とボリュームがオンラインに復帰しない可能性
があります。
198 | 物理ストレージ管理ガイド
パラメータ
説明
-relocate-to-higher-version true|
false
ソース ノードよりも上位のバージョンのData
ONTAPを実行しているノードにアグリゲートを
再配置するかどうかを指定します。
•
‑relocate‑to‑higher-version trueパ
ラメータを使用して、Data ONTAP 8.2を実
行しているノードからData ONTAP 8.3以降
を実行しているノードへのアグリゲートの再
配置を実行することはできません。
最初にソース ノードをData ONTAP 8.2.1以
降にアップグレードしてから、このパラメー
タを使用してアグリゲートの再配置処理を
実行する必要があります。
同様に、Data ONTAP 8.3にアップグレード
するには、先にData ONTAP 8.2.1以降にア
ップグレードしておく必要があります。
•
-override-destination-checks true|
false
Data ONTAPの異なるマイナー バージョン
を実行しているノード間(8.2.1から8.2.2、
8.2.2から8.2.1など)でアグリゲートの再配
置を実行することは可能ですが、上位のメ
ジャー バージョンから下位のメジャー バー
ジョン(8.3から8.2.2など)へのアグリゲート
の再配置処理を実行することはできませ
ん。
デスティネーション ノードで実行されるチェック
をアグリゲートの再配置処理で無視するかどう
かを指定します。
このオプションを使用すると、クライアントの停
止が長引いたり、処理の完了後にアグリゲート
とボリュームがオンラインに復帰しない可能性
があります。
アグリゲートの再配置時の拒否とデスティネーションのチェック
アグリゲートの再配置処理では、アグリゲートの再配置を問題なく完了できるかどうかがData
ONTAPで確認されます。アグリゲートの再配置が拒否された場合、EMSメッセージを調べて原因
を特定する必要があります。その理由に応じて、拒否を無視しても問題がないかどうかを判断する
ことができます。
storage aggregate relocation showコマンドを実行すると、アグリゲートの再配置の進捗が
表示されます。再配置が拒否された場合は、拒否したサブシステムも表示されます。拒否の中に
は、無視してもかまわないソフトなものと、強制しても無視できないハードなものがあります。
アグリゲートの管理 | 199
次のコマンドを使用して、ギブバックの拒否に関するEMSの詳細を確認できます。
event log show -node * -event gb*
次のコマンドを使用して、アグリゲートの再配置に関するEMSの詳細を確認できます。
event log show -node * -event arl*
次の表に、ソフトな拒否とハードな拒否の両方について、推奨される対処方法を示します。
アグリゲートの再配置時の拒否のチェック
拒否しているサブシステ
ム モジュール
対処方法
Vol Move
アグリゲートでホストされているいずれかのボリュームがボリューム
移動の対象になっている場合、そのボリューム移動がカットオーバ
ー状態になると、アグリゲートの再配置が拒否されます。
ボリュームの移動が完了するまで待ちます。
この拒否を無視した場合、アグリゲートの再配置の完了後にカットオ
ーバーが自動的に再開されます。アグリゲートの再配置によって移
動処理の回数が再試行回数(デフォルトでは3回)を超えた場合は、
volume move trigger-cutoverコマンドを使用して手動でカット
オーバーを開始する必要があります。
Backup
アグリゲートでホストされているボリュームでダンプ ジョブまたはリス
トア ジョブを実行中の場合、アグリゲートの再配置が拒否されます。
実行中のダンプ処理またはリストア処理が完了するまで待ちます。
この拒否を無視した場合、バックアップ処理またはリストア処理は中
止され、バックアップ アプリケーションで再開する必要があります。
Lock Manager
この問題を解決するには、ファイルを開いているCIFSアプリケーショ
ンを適切な手順でシャットダウンするか、それらのボリュームを別の
アグリゲートに移動します。
この拒否を無視すると、CIFSのロック状態が解除され、システムの
停止やデータの損失の原因になります。
Lock Manager NDO
ロックがミラーされるまで待ちます。
この拒否は無視できません。無視すると、Microsoft Hyper-V仮想マ
シンの処理が停止します。
RAID
EMSメッセージを調べて拒否の原因を特定します。
ディスクの追加処理またはディスク所有権の再割り当て処理を実行
中の場合は、それらの処理が完了するまで待ちます。
ミラーの再同期、ミラーの検証、またはディスクのオフライン化が原
因で拒否された場合は無視してかまいません。これらの処理は、再
配置後に再開されます。
200 | 物理ストレージ管理ガイド
アグリゲートの再配置時のデスティネーションのチェック
拒否しているサブシステ
ム モジュール
対処方法
Disk Inventory
アグリゲートに属するディスクにデスティネーション ノードで認識でき
ないものがあると、アグリゲートの再配置が失敗します。
ストレージのケーブルに緩んでいるものがないかどうか調べ、再配
置するアグリゲートに属するディスクにデスティネーションからアクセ
スできることを確認します。
このチェックは無視できません。
WAFL
再配置を行うとデスティネーションの最大ボリューム数や最大ボリュ
ーム サイズの制限を超えてしまう場合、アグリゲートの再配置が失
敗します。
このチェックは無視できません。
Lock Manager NDO
次の場合にアグリゲートの再配置が失敗します。
•
アグリゲートの再配置用にロックを再構築するためのロック マネ
ージャのリソースがデスティネーションに十分にない場合
•
デスティネーション ノードでロックを再構築中の場合
数分待ってからアグリゲートの再配置をもう一度実行します。
このチェックは無視できません。
Lock Manager
アグリゲートの再配置用にロックを再構築するためのロック マネージ
ャのリソースがデスティネーションに十分にない場合、アグリゲート
の永続的な再配置が失敗します。
数分待ってからアグリゲートの再配置をもう一度実行します。
このチェックは無視できません。
RAID
EMSメッセージを調べてエラーの原因を特定します。
•
アグリゲートの名前またはUUIDの競合が原因である場合は、ト
ラブルシューティングを行ってその問題を解決します。このチェッ
クは無視できません。
再配置を行うとデスティネーションの最大アグリゲート数、システム
容量、またはアグリゲート容量の制限を超えてしまう場合、アグリゲ
ートの再配置が失敗します。このチェックは無視しないでください。
アグリゲートの管理 | 201
SVMへのアグリゲートの割り当て
Storage Virtual Machine(SVM、旧Vserver)に1つ以上のアグリゲートを割り当てた場合、そのSVM
のボリュームはそれらのアグリゲートにのみ含めることができます。SVMへのアグリゲートの割り
当ては、マルチテナンシー環境やInfinite Volumeを使用する環境で特に重要になります。
開始する前に
SVMとそのSVMに割り当てるアグリゲートを用意しておく必要があります。
タスク概要
SVMにアグリゲートを割り当てると、SVMどうしの分離に役立ちます。これはマルチテナンシー環
境で特に重要になります。Infinite Volumeを使用している場合や今後使用する予定がある場合
は、それぞれのInfinite Volumeがクラスタ内の他のInfinite VolumeやFlexVolに影響しないようにす
るため、アグリゲートをSVMに割り当てる必要があります。
手順
1. SVMにすでに割り当てられているアグリゲートのリストを確認します。
vserver show -fields aggr-list
SVMに現在割り当てられているアグリゲートが表示されます。割り当てられているアグリゲート
がない場合は「-」が表示されます。
2. 要件に応じて、割り当てられているアグリゲートを追加または削除します。
状況
使用するコマンド
追加のアグリゲートを割り当
てる
vserver add-aggregates
アグリゲートの割り当てを解
除する
vserver remove-aggregates
表示されているアグリゲートがSVMに割り当てられるか、または削除されます。SVMに割り当
てられていないアグリゲートを使用するボリュームがすでにSVMに関連付けられている場合、
警告メッセージが表示されますが、コマンドは正常に完了します。SVMにすでに割り当てられて
いるアグリゲートとコマンドで指定していないアグリゲートに影響はありません。
例
次の例では、アグリゲートaggr1およびaggr2がSVM svm1に割り当てられます。
vserver add-aggregates -vserver svm1 -aggregates aggr1,aggr2
202 | 物理ストレージ管理ガイド
アグリゲート内のスペースを確保する方法
アグリゲートの空きスペースがなくなると、データが失われたり、ボリュームのギャランティが無効
になるなど、さまざまな問題が発生することがあります。アグリゲートのスペースを増やす方法は
いくつかあります。
どの方法にもさまざまな影響があります。実際に処理を行う前に、該当するドキュメントの関連する
セクションをお読みください。
アグリゲートのスペースを確保するための一般的ないくつかの方法について、影響が小さいもの
から順に次に示します。
•
アグリゲートにディスクを追加する。
•
使用可能なスペースがある別のアグリゲートに一部のボリュームを移動する。
•
アグリゲート内のボリューム ギャランティが設定されたボリュームのサイズを縮小する。
これは、手動で行うことも、オートサイズ機能のautoshrinkオプションを使用することもできま
す。
•
大量のスペースを使用しているボリューム(大容量のリザーブ ファイルがあるvolumeギャラン
ティ タイプのボリューム)のギャランティ タイプをnoneに変更して、アグリゲート内でそのボリュ
ームが占めるスペースを少なくする。
ギャランティ タイプがnoneのボリュームは、ギャランティ タイプがvolumeのボリュームに比べて
アグリゲートの占有量が少なくなります。ギャランティによってボリューム用にアグリゲートのス
ペースが大量にリザーブされているかどうかは、volume show-footprintコマンドの出力の
Volume Guarantee行で確認できます。
•
不要なボリュームSnapshotコピーを削除する(ボリュームのギャランティ タイプがnoneの場
合)。
•
不要なボリュームを削除する。
•
重複排除や圧縮などのスペース削減機能を有効にする。
•
大量のメタデータを使用している機能(volume show-footprintコマンドで確認可能)を(一
時的に)無効にする。
アグリゲートの管理 | 203
アグリゲートに配置するボリュームの確認
アグリゲートで処理(アグリゲートの再配置やオフライン化など)を実行する前に、アグリゲートに配
置するFlexVolまたはInfinite Volumeコンスティチュエントを確認しなければならない場合がありま
す。
タスク概要
Infinite VolumeコンスティチュエントはFlexVolと多少似た要素もありますが、通常それらを直接管
理することはありません。Infinite Volumeとコンスティチュエントの詳細については、『Clustered
Data ONTAP Infinite Volumes Management Guide』を参照してください。
手順
1. システムにInfinite Volumeがあるかどうかに応じて、適切なコマンドを入力します。
システムの状態
使用するコマンド
Infinite Volumeがない
volume show -aggregate aggregate_name
Infinite Volumeがある
volume show -is-constituent * -aggregate
aggregate_name
指定されたアグリゲートに配置されているすべてのボリューム(Infinite Volumeがある場合はコ
ンスティチュエント)が表示されます。
Flash PoolアグリゲートでSSDストレージ プールを使用しているかど
うかの確認
SSDストレージ プールを使用してキャッシュを提供する場合と、単独のSSDを使用する場合とで
は、Flash Poolアグリゲートの管理方法が異なります。
手順
1. RAIDグループ別のアグリゲートのドライブを表示します。
storage aggregate show-status aggr_name
アグリゲートで1つ以上のSSDストレージ プールを使用している場合は、SSD RAIDグループの
Position列の値がSharedと表示され、RAIDグループ名の横にストレージ プールの名前が表
示されます。
204 | 物理ストレージ管理ガイド
アグリゲートの管理用コマンド
storage aggregateコマンドを使用して、アグリゲートを管理します。
状況
使用するコマンド
すべてのFlash Poolアグリゲートのキャッシュ
サイズを表示する
storage aggregate show -fields
hybrid-cache-size-total -hybridcache-size-total >0
アグリゲートのディスクの情報とステータスを
表示する
storage aggregate show-status
ノード別のスペア ディスクを表示する
storage aggregate show-spare-disks
クラスタ内のルート アグリゲートを表示する
storage aggregate show -has-mroot
true
アグリゲートの基本情報とステータスを表示す
る
storage aggregate show
アグリゲートをオンラインにする
storage aggregate online
アグリゲートを削除する
storage aggregate delete
アグリゲートを制限状態にする
storage aggregate restrict
アグリゲートの名前を変更する
storage aggregate rename
アグリゲートをオフラインにする
storage aggregate offline
アグリゲートのRAIDタイプを変更する
storage aggregate modify -raidtype
関連情報
Clustered Data ONTAP 8.3 Commands: Manual Page Reference
205
ストレージの制限
ストレージ オブジェクトには、ストレージ アーキテクチャを計画および管理するときに考慮する必要
がある制限があります。
次のセクションに制限の一覧を示します。
•
アグリゲートの制限
•
RAIDグループの制限
アグリゲートの制限
ストレージ オブ
ジェクト
最大値
ネイティブ スト
レージ
ストレージ アレ
イ
仮想ストレージ
(Data ONTAP-v)
アグリゲート
ノードあたりの最
大数1
100
100
60
最大サイズ2
モデルごとに異
なる
モデルごとに異
なる
16TB
最小サイズ3
RAID-DP:5デ
ィスク
RAID 4:3ディ
スク
モデルごとに異
なる
1ディスク
推奨されるノード
あたりの最大数4
64
64
N/A
150
150
60
アグリゲート(ミ
ラー)
RAIDグループ アグリゲートあた
りの最大数
メモ:
1. HA構成では、この制限がそれぞれのノードに個別に適用されるため、ペア全体の制限は2倍
になります。
2. 詳細については、Hardware Universeを参照してください。
3. 物理ディスクを使用するルート アグリゲートの最小サイズは、RAID-DPで3ディスク、RAID 4で
2ディスクです。
ストレージ アレイのアグリゲートの最小サイズについては、Hardware Universeを参照してくださ
い。
206 | 物理ストレージ管理ガイド
4. ノードに64個を超えるミラーされたアグリゲートを作成することもできますが、その場合、何らか
の障害のあとにプレックスの同期の問題が発生する可能性があります。
RAIDグループの制限
RAIDグループの最大サイズとデフォルト サイズについては、Hardware Universeを参照してくださ
い。
最大値
ネイティブ ストレ
ージ
ストレージ アレイ
仮想ストレージ
(Data ONTAP-v)
ノードあたりの最大数
400
400
60
アグリゲートあたりの最大
数
150
150
60
207
著作権に関する情報
Copyright © 1994–2015 NetApp, Inc. All rights reserved. Printed in the U.S.
このドキュメントは著作権によって保護されています。著作権所有者の書面による事前承諾がある
場合を除き、画像媒体、電子媒体、および写真複写、記録媒体、テープ媒体、電子検索システム
への組み込みを含む機械媒体など、いかなる形式および方法による複製も禁止します。
ネットアップの著作物から派生したソフトウェアは、次に示す使用許諾条項および免責条項の対象
となります。
このソフトウェアは、ネットアップによって「現状のまま」提供されています。ネットアップは明示的な
保証、または商品性および特定目的に対する適合性の暗示的保証を含み、かつこれに限定され
ないいかなる暗示的な保証も行いません。ネットアップは、代替品または代替サービスの調達、使
用不能、データ損失、利益損失、業務中断を含み、かつこれに限定されない、このソフトウェアの
使用により生じたすべての直接的損害、間接的損害、偶発的損害、特別損害、懲罰的損害、必然
的損害の発生に対して、損失の発生の可能性が通知されていたとしても、その発生理由、根拠と
する責任論、契約の有無、厳格責任、不法行為(過失またはそうでない場合を含む)にかかわら
ず、一切の責任を負いません。
ネットアップは、ここに記載されているすべての製品に対する変更を随時、予告なく行う権利を保
有します。ネットアップによる明示的な書面による合意がある場合を除き、ここに記載されている製
品の使用により生じる責任および義務に対して、ネットアップは責任を負いません。この製品の使
用または購入は、ネットアップの特許権、商標権、または他の知的所有権に基づくライセンスの供
与とはみなされません。
このマニュアルに記載されている製品は、1つ以上の米国特許、その他の国の特許、および出願
中の特許によ って保護されている場合があります。
権利の制限について:政府による使用、複製、開示は、DFARS 252.227-7103(1988年10月)および
FAR 52-227-19(1987年6月)のRights in Technical Data and Computer Software(技術データおよび
コンピュータソフトウェアに関する諸権利)条項の(c) (1) (ii)項、に規定された制限が適用されま
す。
208 | 物理ストレージ管理ガイド
商標に関する情報
NetApp、NetAppのロゴ、Go Further, Faster、ASUP、AutoSupport、Campaign Express、Cloud
ONTAP、clustered Data ONTAP、Customer Fitness、Data ONTAP、DataMotion、Fitness、Flash
Accel、Flash Cache、Flash Pool、FlashRay、FlexArray、FlexCache、FlexClone、FlexPod、
FlexScale、FlexShare、FlexVol、FPolicy、GetSuccessful、LockVault、Manage ONTAP、Mars、
MetroCluster、MultiStore、NetApp Insight、OnCommand、ONTAP、ONTAPI、RAID DP、
SANtricity、SecureShare、Simplicity、Simulate ONTAP、Snap Creator、SnapCopy、SnapDrive、
SnapIntegrator、SnapLock、SnapManager、SnapMirror、SnapMover、SnapProtect、SnapRestore、
Snapshot、SnapValidator、SnapVault、StorageGRID、Tech OnTap、Unbound Cloud、およびWAFL
は米国またはその他の国あるいはその両方におけるNetApp,Inc.の登録商標です。ネットアップの
商標の最新のリストは、http://www.netapp.com/jp/legal/netapptmlist.aspxでご覧いただけます。
CiscoおよびCiscoのロゴは、米国およびその他の国におけるCisco Systems, Inc.の 商標です。そ
の他のブランドまたは製品は、それぞれを保有する各社の商標または登録商標であり、相応の取
り扱いが必要です。
209
マニュアルの更新について
弊社では、マニュアルの品質を向上していくため、皆様からのフィードバックをお寄せいただく専用
のEメール アドレスを用意しています。また、GA/FCS版の製品マニュアルの初回リリース時や既
存マニュアルへの重要な変更があった場合にご案内させていただくTwitterアカウントもあります。
ご意見やご要望は、[email protected]までお寄せください。その際、担当部署で
適切に対応させていただくため、製品名、バージョン、オペレーティング システム、弊社営業担当
者または代理店の情報を必ず入れてください。
GA/FCS版の製品マニュアルの初回リリース時や既存マニュアルへの重要な変更があった場合の
ご案内を希望される場合は、Twitterアカウント@NetAppDocをフォローしてください。
210 | 物理ストレージ管理ガイド
索引
A
E
ACP
end-of-life
ディスクの状態の設定 107
SAS接続ディスク シェルフのストレージの可用性を
向上するための使用方法 26
aggregate show-spaceコマンド
アグリゲートのスペース使用量を確認する方法 156
Alternate Control Path
次を参照 : ACP
ATAドライブ
Data ONTAPで使用されるディスク タイプ名 10
Automated Workflow Analyzer
次を参照 : AWA
AWA
Flash Poolの最適なキャッシュ サイズの確認 184
AZCS方式のチェックサム
アグリゲート管理への影響 14
スペア管理への影響 14
設定ルール 14
B
BCS方式のチェックサム
アグリゲート管理への影響 14
スペア管理への影響 14
設定ルール 14
BSASドライブ
Data ONTAPで使用されるディスク タイプ名 10
D
Data ONTAP Edge
ディスクの所有権の機能 60
Data ONTAP-v
ディスクの所有権の機能 60
Data ONTAPのディスク タイプ
業界標準との比較 10
Disk Qualification Package
更新が必要なタイミング 44
disk remove -w
アレイLUNの削除 83
DQP
次を参照 : Disk Qualification Package
DRホーム所有者
ディスク所有権の種類, 定義 57
F
FCALドライブ
Data ONTAPで使用されるディスク タイプ名 10
FCストレージ接続タイプ
サポート 12
ディスクの組み合わせ方法 12
Flash Cache
Flash Poolアグリゲートとの比較 139
Flash Pool SSDのパーティショニング
Flash Poolアグリゲートのキャッシュ割り当ての柔軟
性を拡張する仕組み 144
Flash Poolアグリゲート
Flash Cacheとの比較 139
RAIDタイプ, 考慮事項 138
RAIDタイプの変更 189
SSDストレージ プールの作成 148
SSDストレージ プールを使用するFlash Poolアグリ
ゲートの作成 182
機能 136
キャッシュ容量の計算方法 140
キャッシング ポリシー 141
候補と最適なキャッシュ サイズの確認 184
作成 180
使用するための要件 137
ストレージ プールがキャッシュ割り当ての柔軟性を
拡張する仕組み 144
ストレージ プールでの使用法 146
ストレージ プールを使用しているかどうかの確認
203
ストレージ プールを使用する際の要件およびベスト
プラクティス 147
スペアの管理, 考慮事項 138
定義 136
複数のドライブ タイプを混在させる場合のルール
155
ボリュームの書き込みキャッシュ対応, 確認 188
FlexVol
Infinite Volumeとのアグリゲートの共有 161
アグリゲートに配置するボリュームの確認 203
アグリゲートの選択に対するSVMの影響 152
索引 | 211
スペース情報を表示するコマンド 55
物理ドライブを使用するアグリゲートの作成 168
FSASドライブ
Data ONTAPで使用されるディスク タイプ名 10
KMIP
次を参照 : Key Management Interoperability
Protocol
L
H
HDD
Data ONTAPでサポートされている速度 13
SSDとの機能の違い 28
共有, 機能 32
共有HDDの所有権の割り当て 62
共有HDDを使用するアグリゲートのサイズの拡張
174
共有HDDを使用するアグリゲートの作成 170
共有の標準的なレイアウト 34
異なるタイプをアグリゲート内に混在させる場合の
ルール 154
HDD RAIDグループ
サイジングに関する考慮事項 118
I
ID
ループの概要, FC-AL接続ディスク 18
Infinite Volume
アグリゲートに配置するコンスティチュエントの確認
203
アグリゲートの再配置 164
アグリゲートの要件 161
関連付けられたアグリゲート 162
コンスティチュエントのスペース使用量を確認する
方法 158
ストレージ クラスによるアグリゲートの使用方法
162
スペースの割り当て 163
物理ドライブを使用するアグリゲートの作成 168
容量の割り当て 163
Infinite Volumeを備えたSVM
アグリゲートの要件 161
アグリゲートの割り当て 162
委譲 162
InfiniteVol
次を参照 : Infinite Volume
K
Key Management Interoperability Protocol
キー管理サーバとの通信に使用 84
LUN, アレイ
次を参照 : LUN(アレイ)
LUN(アレイ)
Data ONTAP RAIDグループ 121
Data ONTAPが使用できるケース 72
Data ONTAPで使用できるようにする方法 58, 70
Data ONTAPで所有 71
Data ONTAPでの管理 67
Data ONTAPでのセットアップ 67
Data ONTAPを実行しているシステムをサービスか
ら削除する場合の要件 83
RAID保護 113
構成を変更するための前提条件 81
サイズまたは構成の変更 82
サイズを変更するための前提条件 81
システムに割り当てる理由 71
使用できる, Data ONTAPシステム 67
所有権の割り当て 75
所有権の割り当ての変更 76
所有権を割り当てる理由 57, 69
チェックサム方式の確認 79
チェックサム方式の変更 80
名前
形式 78
バックエンド構成の検証 76
複数のストレージ タイプをアグリゲートに混在させ
る場合のルール 155
M
maintenance center
ディスクの割り当て条件 24
ドライブ エラーを防ぐ方法 23
MSATAドライブ
Data ONTAPで使用されるディスク タイプ名 10
MSID
SEDのキー変更 104
N
NL-SASドライブ
Data ONTAPで使用されるディスク タイプ名 10
212 | 物理ストレージ管理ガイド
P
スケジュールされたRAIDレベルのスクラビングの
代わりにメディア スクラビングを使用できない理由
PSID
PSID機能を備えた 110
SEDを工場出荷時の設定にリセットする方法 109
工場出荷時の設定へのSEDのリセットに使用 111
25
S
SAS
R
RAID
SyncMirrorと組み合わせた保護 114
Data ONTAPでのデータとデータ可用性の保護 112
影響の回避, マルチディスク キャリアの交換時 29
処理, パフォーマンスへの影響の制御 128
スクラビング, スケジュールの変更 127
スクラビング, パフォーマンスへの影響の制御 129
タイプ, Flash Poolキャッシュについての決定 138
タイプ, Flash Poolキャッシュについての変更 189
ディスク スクラビングによるデータの整合性の検証
127
ディスクの保護レベル 112
データ再構築, パフォーマンスへの影響の制御 129
ドライブタイプの定義 19, 117
RAID 0
Data ONTAPでアレイLUNに使用 113
Data ONTAPでの使用 113
RAID 4
説明 113
RAID-DP
説明 112
raid.timeoutオプション
変更に関する考慮事項 126
RAIDグループ
アグリゲートあたりの最大数 205
アグリゲートにストレージを追加したときの動作 180
アレイLUN, 考慮事項 121
機能 118
サイジングに関する考慮事項 118
サイズの変更 119
情報の確認, アグリゲート 191
定義 118
ノードあたりの最大数 206
命名規則 118
RAID保護
アレイLUN 113
RAIDレベル スクラビング
自動スケジュール, 変更 127
手動での実行方法 128
ストレージ接続タイプ, サポート 12
SAS接続シェルフ
ACPを使用してストレージの可用性を向上する方
法 26
ディスクの組み合わせ方法 12
SASドライブ
Data ONTAPで使用されるディスク タイプ名 10
SATAドライブ
Data ONTAPで使用されるディスク タイプ名 10
SED
PSID機能を備えた 110
PSIDを使用して工場出荷時の設定にリセットする
方法 109
交換 46
工場出荷時の設定へのリセット 111
ストレージ暗号化の仕組み 85
ディスク処理 86
非保護モードに戻す 104
serial-attached SCSI
次を参照 : SAS
Snapshotリザーブ
サイズを表示するコマンド 55
SSD
Data ONTAPで使用されるディスク タイプ名 10
Data ONTAPでの寿命管理 27
Flash Poolアグリゲートでの使用 136
HDDとの機能の違い 28
RAIDグループのサイジングに関する考慮事項 118
RAIDグループのサイズ変更 119
既存のストレージ プールに追加する場合と新規作
成する場合の考慮事項 150
共有
次を参照 : ストレージ プール
使用方法の概要 26
ストレージ プール, Flash Poolアグリゲートで使用さ
れる場合の確認 203
ストレージ プール, 作成 148
ストレージ プールに追加 149
ストレージ プールへの追加がキャッシュ サイズに
及ぼす影響の特定 150
ストレージ プールを使用するケースに関する考慮
事項 145
索引 | 213
SSDストレージ プール
管理用コマンド 151
使用するFlash Poolアグリゲートの作成 182
次も参照 : ストレージ プール
SSL証明書
交換用のインストール 103
ストレージ システムへのインストール 91
古いSSL証明書の削除 103
有効期限切れの問題の回避 102
要件 90
SSL接続
セキュアなキー管理通信のための使用方法の概要
90
storage aggregate relocation startコマンド
主なパラメータ 197
storage aggregateコマンド
アグリゲートの管理 204
スペース情報の表示 55
ディスクの管理用 54
storage diskコマンド
ディスクの管理用 54
SVM
アグリゲートの選択に対する影響 152
アグリゲートの割り当て 201
ポリシー
自動割り当て, ディスクに使用 60
SyncMirror
RAIDと組み合わせた保護 114
T
Twitter
マニュアルの変更に関する自動通知の受信方法
209
V
VMDKドライブ
Data ONTAPで使用されるディスク タイプ名 10
volume show-footprintコマンド
出力の内容 158
volumeコマンド
スペース情報の表示 55
Vserver
次を参照 : SVM
Vシリーズ システム
次を参照 : LUN(アレイ)
Vシリーズの機能
FlexArray仮想化への名称変更 67
W
WAFL外部キャッシュ
Flash Poolアグリゲートとの比較 139
あ
アクセスできないキー管理サーバ
ブート プロセス時にキー管理サーバにアクセスで
きない場合の予防措置 98
アクティブ / アクティブ構成
ルートデータのパーティショニングを使用した設定
41
アグリゲート
Data ONTAPでサポートされているディスク速度 13
Flash Pool, 機能 136
Flash Pool, ストレージ プールを使用しているかどう
かの確認 203
Flash Pool, 定義 136
Flash Pool, ボリュームの書き込みキャッシュ対応の
確認 188
Flash Poolの候補と最適なキャッシュ サイズの確認
184
Flash Poolの作成 180
Flash Pool用のSSDストレージ プールの作成 148
Flash Pool用のキャッシュ容量の計算方法 140
Flash Poolを使用するための要件 137
FlexVolとInfinite Volumeでの共有 161
Infinite Volumeとの関連付け 162
Infinite Volumeについてのストレージ クラスによる
使用方法 162
Infinite Volumeの要件 161
RAIDグループ情報の確認 191
RAIDグループのサイジングに関する考慮事項 118
RAIDグループのサイズ変更 119
SSDストレージ プールを使用するFlash Poolの作成
182
SVMとInfinite Volumeの関連付け 162
SVMへの割り当て 201
アレイLUNのチェックサム方式の決定 156
管理の概要 168
管理用コマンド 204
共有HDDを使用するアグリゲートの作成 170
サイズの拡張, 共有HDDを使用する場合 174
最大および最小サイズ 205
最大サイズ, 計算方法 13
再配置 192, 194
作成とバックアップについてのヒント, 機密データ 22
使用されているディスクの交換 45
214 | 物理ストレージ管理ガイド
所有権の切り替え 164
所有権の変更 194
ストレージ アレイ ファミリーについてのルール 155
ストレージ クラスに対する要件 162
ストレージ プールがFlash Poolに対するキャッシュ
割り当ての柔軟性を拡張する仕組み 144
ストレージ プールでFlash Poolを使用する方法 146
ストレージ プールとFlash Poolを使用する際の要件
およびベストプラクティス 147
ストレージを追加したときの動作 180
スペース情報を表示するコマンド 55
スペース使用量の判定方法 156
スペースを確保する方法 202
説明と特徴 133
選択に対するSVMの影響 152
速度の異なるディスクを使用する方法 153
タイプの異なるHDDを混在させる場合のルール
154
ドライブ情報の確認 191
ドライブのチェックサム方式による管理への影響 14
ノードあたりの最大数 205
配置するボリュームの確認 203
複数のストレージ タイプを混在させる場合のルー
ル 155
物理ドライブまたはアレイLUNの追加 172
物理ドライブを使用するアグリゲートの作成 168
物理ドライブを使用する場合のサイズの拡張 172
マルチディスク キャリア シェルフの構成要件 30
マルチディスク キャリアのディスクを使用する場合
の考慮事項 31
ミラー, 説明 135
ミラー, ノードあたりの最大数 205
ミラーされていない, 説明 133
ルート, 使用するためにパーティショニングされるド
ライブ 34
ルートデータのパーティショニングがストレージ管理
に及ぼす影響 33
ルートデータのパーティショニングを使用するアグリ
ゲートの作成 170
アグリゲートの再配置
Infinite Volume 164
共有ディスクに対する影響 193
拒否の無視 198
コマンド 196
仕組み 192
進捗の監視 198
利点 192
ルートデータのパーティショニングに対する影響
193
アグリゲートの所有権
再配置 192
アレイLUN
RAIDグループのサイジングに関する考慮事項 118
アグリゲートへの追加 172
異機種混在ストレージからの選択の制御方法 153
使用できる, Data ONTAPシステム 67
所有権を割り当てる理由 57, 69
バックエンド構成の検証 76
アレイLUNの所有権
仕組み 69
い
異機種混在ストレージ
Data ONTAPでの処理の概要 152
ディスク選択の制御方法 153
一致するスペア ディスク
定義 123
インストール
交換用SSL証明書 103
ストレージ システムへのSSL証明書のインストール
91
う
ウィザード
ストレージ暗号化のセットアップの実行 92
え
永続的予約
すべて解除 83
エラー
Maintenance Centerを使用してドライブ エラーを防
ぐ方法 23
メディア エラーを防止するためのData ONTAPによ
るメディア スクラビング 25
エントリレベル プラットフォーム
ルートデータのパーティショニングの概要 32
お
オールフラッシュによる最適化
ノードの動作に及ぼす影響 27
オフライン
Data ONTAPでディスクがオフラインになった場合
の動作 22
索引 | 215
か
ガイドライン
ディスク所有権の割り当て 61
外部キー管理サーバ
情報の表示 96
定義 84
書き込みキャッシュ
Flash Poolアグリゲートでの対応の確認 188
FlexVol対応の確認 188
拡張
物理ドライブを使用するアグリゲートのサイズ 172
可用性
Data ONTAPでのRAIDを使用したデータ可用性の
確保 112
完全消去
機密データを含むアグリゲートの作成とバックアッ
プについてのヒント 22
実行できない状況 21
中断された場合の動作 21
ディスク 105
ディスク, 機能の概要 20
ディスクからのデータの削除に使用 51
ディスク完全消去の停止 53
ディスクについてのプロセスの説明 20
管理
ストレージ暗号化 94
管理サーバ
キー管理サーバに関する情報の表示 96
キー管理サーバのサーバ リンクの確認 95
キー管理サーバの追加 94
認証キーの削除 97
き
キー
ストレージ暗号化で認証を使用する方法 85
認証キーの取得 101
認証の変更 100
キー管理サーバ
外部, 定義 84
削除 97
情報の表示 96
ステータスの表示 95
セキュアな通信のためのSSLの使用方法の概要
90
追加 94
ブート プロセス時にアクセスできない場合の予防
措置 98
リンクの確認 95
キー変更
SEDからMSID 104
既存のストレージ プール
SSDを追加する場合の考慮事項 150
キャッシュ
Flash PoolとFlash Cacheの比較 139
キャッシュ サイズ
Flash Poolアグリゲートに最適なキャッシュ サイズ
の確認 184
影響の特定, ストレージ プールにSSDを追加する場
合 150
キャッシュ ストレージ
Flash Poolアグリゲートにストレージ プールを使用
する際の要件およびベストプラクティス 147
キャッシュ容量
Flash Poolアグリゲート用の計算方法 140
キャッシング ポリシー
Flash Poolアグリゲートの使用 141
変更 143
キャリア
マルチディスク キャリアを取り外せるかどうかの確
認 29
マルチディスクのスペアに関する要件 30
マルチディスクを取り外すときにData ONTAPが
RAIDへの影響を回避する方法 29
共有HDD
アグリゲートの作成 170
概要 32
機能 32
使用するアグリゲートのサイズの拡張 174
所有権の割り当て 62
共有HDDのレイアウト
標準的なHDD 34
共有SSD
次を参照 : ストレージ プール
拒否
アグリゲートの再配置 198
無視 198
緊急時のデータ シュレッディング
ストレージ暗号化を使用したディスクでの実行 108
データ保護 87
く
クライアントと環境
Flash Pool SSDがキャッシュ割り当ての柔軟性を拡
張する仕組み 144
グループ
RAID, 仕組み 118
216 | 物理ストレージ管理ガイド
け
形式
クラスタ構成前のドライブ名 16
ドライブ名 15
現在の所有者
ディスク所有権の種類, 定義 57
検証
キー管理サーバのリンク 95
バックエンド構成 76
こ
コア ファイル
スペア ディスクが必要な場合 122
交換
アグリゲート内のディスク 45
構成
アレイLUNの変更 82
高性能なアグリゲート
Flash Pool, 定義 136
高速RAIDリカバリ
Data ONTAPによるディスク障害の削減 22
コマンド
FlexVolのスペース情報の表示 55
SSDストレージ プール管理, 一覧 151
storage aggregate 54, 55, 204
storage disk 54
volume show-footprint 55
volume show-space 55
volume snapshot 55
アグリゲートの管理, 一覧 204
アグリゲートのスペース情報の表示 55
ストレージ シェルフ, 情報の表示 55
ストレージ シェルフに関する情報の表示 55
ストレージ プール 151
ストレージ プール管理, 一覧 151
ディスク管理, 一覧 54
ディスク所有権コマンドでのワイルドカード文字の
使用 65
コメント
マニュアルに関するフィードバックの送信方法 209
コンスティチュエント
アグリゲートに配置するボリュームの確認 203
さ
サードパーティ ストレージ
バックエンド構成の検証 76
サーバ
キー管理サーバに関する情報の表示 96
キー管理サーバのサーバ リンクの確認 95
キー管理サーバの追加 94
認証キー管理サーバの削除 97
サイジング
RAIDグループ, 考慮事項 118
サイズ
アレイLUNのサイズの変更 81
アレイLUNの変更 82
再同期化
プレックスの再同期化のパフォーマンスへの影響
の制御 130
再配置
アグリゲート 192, 194
アグリゲートの所有権 192, 194
削除
キー管理サーバ 97
データ, ディスク完全消去の使用 51
データ ディスク 49
認証キー 102
古いSSL証明書 103
ホット スペア ディスク 48
作成
Flash Poolアグリゲート 180
SSDストレージ プールを使用するFlash Poolアグリ
ゲート 182
物理ドライブを使用するアグリゲート 168
し
シェルフ
ACPを使用してSAS接続ディスク シェルフのストレ
ージの可用性を向上する方法 26
情報を表示するコマンド 55
所有権の自動割り当ての設定 64
マルチディスク キャリアのアグリゲートの構成要件
30
マルチディスク キャリアの構成に関する要件 30
マルチディスク キャリアの使用に関する要件 28
自己暗号化ディスク
次を参照 : SED
システム パフォーマンス
メディア スクラビングによる影響 25
システム容量
計算方法 13
自動RAIDレベル スクラビング
スケジュールの変更 127
自動割り当て
次を参照 : 所有権の自動割り当て
索引 | 217
手動RAIDレベル スクラビング
実行方法 128
取得
認証キー 101
寿命
Data ONTAPでのSSDの寿命管理 27
シュレッディング
緊急時のデータ シュレッディングの実行, ストレー
ジ暗号化を使用したディスク上 108
障害ディスク
取り外し 48
使用済みスペース
アグリゲート内について確認および制御する方法,
ボリューム単位 158
アグリゲートについて確認する方法 156
情報
マニュアルの品質向上に関するフィードバックの送
信方法 209
証明書
SSLのインストール, ストレージ システム 91
SSLの有効期限切れの問題の回避 102
SSLの要件 90
交換用SSL証明書のインストール 103
古いSSLの削除 103
初期化
ルートデータのパーティショニングを設定するため
のノードでの実行 36
所有権
アレイLUNの割り当て 75
管理の概要, ディスク 57
共有HDDの場合の割り当て 62
スタックまたはシェルフへの自動割り当て 64
ディスク, 種類 57
ディスクからの削除 63
ディスク所有権の割り当てに関するガイドライン 61
ディスクとアレイLUNに対する機能 69
ディスクとアレイLUNの所有権を割り当てる理由
57, 69
ディスクの割り当て 61
所有権コマンド
ディスク所有権コマンドでのワイルドカード文字の
使用 65
所有権の自動割り当て
起動されるタイミング 60
ディスクに使用するポリシー 60
ディスクに対する処理の仕組み 59
ディスクについてのガイドライン 61
ディスクについての設定 64
所有権の割り当て
ディスクに対して起動されるタイミング 60
所有者
ディスク所有権の種類, 定義 57
新規のストレージプール
SSDを追加する場合の考慮事項 150
す
スクラビング
Data ONTAPによるメディア スクラビング, メディア
エラーの防止 25
RAIDの処理によるパフォーマンスへの影響の制
御 129
RAIDレベル, データの整合性の検証 127
自動スケジュールの変更 127
手動RAIDレベル スクラビングの実行方法 128
メディア, スケジュールされたRAIDレベルのディス
ク スクラビングの代わりに使用できない理由 25
メディア スクラビングによる影響, システム パフォー
マンス 25
スタック
所有権の自動割り当ての設定 64
ストレージ
SSDストレージ プールに追加 149
アグリゲートに追加したときの動作 180
異機種混在の場合のディスク選択の制御方法 153
ルートデータのパーティショニングが管理に及ぼす
影響 33
ストレージ アレイ
アグリゲートに混在させる場合のルール 155
ストレージ暗号化
SSL証明書のインストール 91
SSL証明書の有効期限切れの問題の回避 102
SSL証明書の要件 90
外部キー管理サーバの目的 84
概要 84
管理 94
緊急時のデータ シュレッディングの実行 108
交換用SSL証明書のインストール 103
仕組み 85
自己暗号化ディスクの交換 46
制限事項 87
セキュアなキー管理通信のためのSSLの使用方法
の概要 90
設定前に収集する情報 88
セットアップ 88
セットアップ ウィザードの実行 92
説明 84
ディスク情報の表示 99
ディスクの完全消去 105
218 | 物理ストレージ管理ガイド
ディスクの状態をend-of-lifeに設定する作業 107
データの削除 105
古いSSL証明書の削除 103
保管データの保護の概要 84
利点 86
ストレージ シェルフ
情報を表示するコマンド 55
マルチディスク キャリアの使用に関する要件 28
ストレージ システム
ディスクの取り外しに関する考慮事項 47
ストレージ接続タイプ
サポート対象 12
ストレージの制限
FlexCloneファイルとFlexClone LUN 205
RAIDグループ 205
アグリゲート 205
ボリューム 205
ストレージ パフォーマンス
SSDを使用して向上する方法の概要 26
パフォーマンス
SSDを使用してストレージ パフォーマンスを向
上する方法の概要 26
ストレージ プール
Flash Poolアグリゲートで使用される場合の確認
203
Flash Poolアグリゲートのキャッシュ割り当てを拡張
する方法 144
SSDを新規作成する場合と既存に追加する場合の
考慮事項 150
SSDの欠点 145
SSDの追加 149
SSDの追加がキャッシュ サイズに及ぼす影響の特
定 150
SSDの利点 145
SSDを使用するFlash Poolアグリゲートの作成 182
SSDを使用するケースに関する考慮事項 145
管理用コマンド 151
作成 148
使用方法 146
要件およびベストプラクティス 147
スペア アレイLUN
アレイLUNの割り当ての変更 76
所有権の割り当ての変更 76
ディスク所有権 76
方式の確認 79
スペア ディスク
Flash Poolキャッシュについての管理 138
一致, 定義 123
最低限必要な数 122
削除 48
使用可能なディスク 123
所有権の削除 63
スペア不足に対する警告を使用した管理 125
チェックサム方式による管理への影響 14
定義 122
適切 123
マルチディスク キャリアの要件 30
利用可能なホット スペアがない場合のData
ONTAPによる障害ディスクの処理 126
利用可能なホット スペアを使用したData ONTAPに
よる障害ディスクの処理 125
スペア パーティション
ミスアライメントの修正 178
スペア不足に対する警告
スペア不足に対する警告を使用したスペア ドライブ
の管理 125
スペース
アグリゲートでの確保方法 202
新しいInfinite Volume内での割り当て方法 163
情報を表示するコマンド 55
スペース使用量
アグリゲートについて確認する方法 156
ボリュームのスペース使用量を確認および制御す
る方法, アグリゲート内 158
せ
制限
FlexCloneファイルとFlexClone LUNのストレージ
205
RAIDグループのストレージとサイズ 205
アグリゲート ストレージ 205
ボリューム ストレージ 205
制限事項
ストレージ暗号化 87
セキュアな通信
SSLの使用方法の概要 90
接続タイプ
SASについてのディスクの組み合わせ方法 12
サポートされるストレージ 12
設定
ディスク所有権の自動割り当て 64
セットアップ
アレイLUN 67
ストレージ暗号化 88
セットアップ ウィザード
ストレージ暗号化の実行 92
索引 | 219
そ
ゾーン チェックサム方式
アレイLUNで変更 80
速度
異なるディスクを混在させる方法, アグリゲート内
153
ディスク, Data ONTAPでサポート 13
ソリッド ステート ディスク
次を参照 : SSD
た
退避プロセス
ディスク, 概要 29
タイムアウト
RAIDのオプション, 変更に関する考慮事項 126
ち
チェックサム
アグリゲートについてのルール 156
設定ルール 14
方式, アグリゲートとスペアの管理への影響 14
方式, アレイLUNで変更 80
方式の確認 79
つ
追加
キー管理サーバ 94
て
提案
マニュアルに関するフィードバックの送信方法 209
停止
ディスク完全消去 53
ディスク
一致スペアの定義 123
Data ONTAPでオフラインになった場合の動作 22
Data ONTAPでサポートされている速度 13
Data ONTAPで使用されるディスク タイプ名 10
Data ONTAPで使用できるようにする方法 58, 70
Data ONTAPでの異機種混在ストレージの処理の
概要 152
Data ONTAPによる管理 10
Data ONTAPによる高速RAIDリカバリを使用した
障害の削減 22
Data ONTAPによる障害ディスクの処理, 利用可能
なホット スペアがない場合 126
Data ONTAPによる障害ディスクの処理, 利用可能
なホット スペアを使用する場合 125
Disk Qualification Packageの更新が必要なタイミン
グ 44
FC-AL接続ディスクのループID, 概要 18
Maintenance Centerに割り当てられる条件 24
RAIDドライブ タイプ, 定義 19, 117
RAID保護レベル 112
RAIDレベル スクラビングによるデータの整合性の
検証 127
SAS接続タイプについての組み合わせ方法 12
SSDとHDDの機能の違い 28
アグリゲートでの交換 45
アグリゲートへの追加 172
異機種混在ストレージからの選択の制御方法 153
完全消去 105
完全消去, 中断された場合の動作 21
完全消去によるデータの削除 51
完全消去の停止 53
完全消去プロセスの説明 20
完全消去を実行できない状況 21
管理用コマンド 54
共有HDDの機能 32
考慮事項, マルチディスク キャリアのディスクをアグ
リゲートで使用する場合 31
異なる速度を混在させる方法, アグリゲート内 153
最低限必要なホット スペアの数 122
自己暗号化ディスクの交換 46
障害時の取り外し 48
使用する自動割り当てポリシー 60
状態をend-of-lifeに設定する作業 107
情報の確認, アグリゲート 191
所有権の管理の概要 57
所有権の削除 63
所有権の自動割り当てが起動されるタイミング 60
所有権の自動割り当ての仕組み 59
所有権の種類 57
所有権の割り当て 61
所有権の割り当てに関するガイドライン 61
所有権を割り当てる理由 57, 69
ストレージ暗号化に関する情報の表示 99
ストレージ暗号化を使用した緊急時のデータ シュレ
ッディングの実行 108
ストレージ システムからの取り外しに関する考慮事
項 47
スペア, 適切 123
スペア不足に対する警告を使用したスペアの管理
125
220 | 物理ストレージ管理ガイド
スライス, エントリレベル プラットフォーム向けの概
要 32
退避プロセス, 概要 29
タイプの異なるHDDをアグリゲート内に混在させる
場合のルール 154
データ, スペアへの変換 47
データ ディスクの取り外し 49
ノードへの追加 43
パーティショニングされたディスクを使用するための
要件 36
パフォーマンスの監視 22
物理, アグリゲートへの追加 172
ホット スペアの取り外し 48
マルチディスク キャリアのスペアに関する要件 30
ルートデータのパーティショニングがストレージ管理
に及ぼす影響 33
ディスク完全消去
機能の概要 20
実行できない状況 21
プロセスの説明 20
ディスク シェルフ
ACPを使用してSAS接続ディスク シェルフのストレ
ージの可用性を向上する方法 26
情報を表示するコマンド 55
マルチディスク キャリアのアグリゲートの構成要件
30
マルチディスク キャリアの構成に関する要件 30
マルチディスク キャリアの使用に関する要件 28
disk ownership(ディスク所有権)
アレイLUNへの適用 58, 70
ディスクへの適用 58, 70
ディスク所有権
Data ONTAP Edgeでの機能 60
Data ONTAP-vでの機能 60
アレイLUNの所有権の削除 83
アレイLUNの割り当て 75
アレイLUNへの適用 71
仕組み 69
自動割り当ての設定 64
所有権
アレイLUNの所有権の削除 83
ディスク所有権コマンド
ワイルドカード文字の使用 65
ディスク処理
SEDの使用 86
ディスク スクラビング
スケジュールされたRAIDレベルのディスク スクラ
ビングの代わりに連続メディア スクラビングを使用
できない理由 25
ディスク接続タイプ
SASについてのディスクの組み合わせ方法 12
ディスク タイプ
異機種混在ストレージからの選択の制御方法 153
ディスクの状態
end-of-lifeに設定する作業 107
ディスクのスライス
エントリレベル プラットフォーム向けの概要 32
ディスクのデータの削除
ストレージ暗号化の使用 105
データ
Data ONTAPでのRAIDを使用した保護と可用性の
確保 112
完全消去によるディスクからの削除 51
機密を含むアグリゲートの作成とバックアップにつ
いてのヒント 22
データ再構築
RAIDの処理によるパフォーマンスへの影響の制
御 129
データ シュレッディング
緊急時のデータ シュレッディングの実行, ストレー
ジ暗号化を使用したディスク上 108
データ ディスク
削除 49
データの整合性
RAIDレベル ディスク スクラビングによる検証 127
データ保護
緊急時のシュレッディングの使用 87
ディスクの紛失時または盗難時 86
ディスクをend-of-life状態に移行する場合 87
ディスクをベンダーに返却する場合 86
デグレード モード 124
と
ドキュメント
フィードバックの送信方法 209
変更に関する自動通知の受信方法 209
トポロジ
サポートされるストレージ接続タイプ 12
ドライブ
Data ONTAPによる障害ディスクの処理, 利用可能
なホット スペアがない場合 126
Data ONTAPによる障害ディスクの処理, 利用可能
なホット スペアを使用する場合 125
Flash Poolアグリゲート内に複数のタイプを混在さ
せる場合のルール 155
RAIDグループのサイジングに関する考慮事項 118
クラスタ構成前の名前の形式 16
スペア不足に対する警告を使用したスペアの管理
125
索引 | 221
名前の形式 15
ルートデータのパーティショニング用にパーティショ
ニングされるドライブ 34
次も参照 : ディスク
ドライブ エラー
Maintenance Centerを使用して防ぐ方法 23
ドライブ タイプ
RAID, 定義 19, 117
取り外し
障害ディスク 48
マルチディスク キャリア, 安全に取り外せるかどう
かの確認 29
な
名前
クラスタ構成前のドライブの形式 16
ドライブ名の形式 15
名前の形式
アレイLUN 77
ルートデータ, 使用するための要件 36
ルートデータ, ストレージ管理に及ぼす影響 33
ルートデータ, パーティショニングされたHDDの所
有権の割り当て 62
ルートデータ, パーティショニングされるドライブ 34
ルートデータ, 標準的なレイアウト 34
ルートデータを使用しているノードでのアクティブ /
アクティブ構成の設定 41
パーティション
ミスアライメントのあるスペアの修正 178
ハード ディスクドライブ
次を参照 : HDD
ハイブリッド アグリゲート
次を参照 : Flash Poolアグリゲート
バックエンド構成
検証 76
パフォーマンス
RAIDデータ再構築の影響の制御 129
メディア スクラビングによるシステムへの影響 25
ひ
に
認証キー
格納する管理サーバの削除 97
削除 102
取得 101
ストレージ暗号化で使用する方法 85
変更 100
の
ノード
異機種混在ストレージからのディスク選択の制御
方法 153
ディスクの追加 43
ルートデータのパーティショニングのための初期化
36
ノードの動作
オールフラッシュによる最適化が及ぼす影響 27
は
パーティショニング
ルートデータ, アグリゲートの作成 170
ルートデータ, 概要 32
ルートデータ, 機能 32
ルートデータ, 使用するアグリゲートのサイズの拡
張 174
非保護モード
SEDを戻す 104
表示
キー管理サーバ情報 96
キー管理サーバのステータス 95
ストレージ暗号化に関するディスク情報 99
標準的なレイアウト
共有HDD 34
ヒント
アグリゲートの作成とバックアップ, 機密データ 22
ふ
ファイバチャネル
次を参照 : FC
ファミリー
定義 155
フィードバック
マニュアルに関するコメントの送信方法 209
プール
ストレージを使用する際の要件およびベストプラク
ティス 147
複数
SSD ストレージを使用するケースに関する考慮事
項 145
物理的なセキュアID
次を参照 : PSID
222 | 物理ストレージ管理ガイド
物理ドライブ
アグリゲートの作成に使用 168
プラットフォーム
エントリレベル向けのルートデータのパーティショニ
ングの概要 32
プレックス
ミラーされたアグリゲート, 説明 135
プレックスの再同期化
パフォーマンスへの影響の制御 130
ブロック チェックサム方式
アレイLUNで変更 80
へ
ベストプラクティス
ストレージ プールの使用 147
変更
Flash PoolキャッシュのRAIDタイプ 189
RAIDグループのサイズ 119
キャッシング ポリシー 143
認証キー 100
ほ
ホーム所有者
ディスク所有権の種類, 定義 57
保管データ
ストレージ暗号化による保護の概要 84
保護
Data ONTAPでのRAIDを使用したデータの保護
112
ディスクのRAIDレベル 112
ホット スペア
一致, 定義 123
最低限必要な数 122
削除 48
使用可能なディスク 123
定義 122
適切 123
利用可能なホット スペアがない場合のData
ONTAPによる障害ディスクの処理 126
利用可能なホット スペアを使用したData ONTAPに
よる障害ディスクの処理 125
ボリューム
Flash Poolアグリゲートでの書き込みキャッシュ対
応の確認 188
FlexVol用のアグリゲートの作成, 物理ドライブの使
用 168
Infinite Volume用のアグリゲートの作成, 物理ドライ
ブの使用 168
アグリゲートに配置するボリュームの確認 203
アグリゲートの共有 161
スペース使用量を確認する方法, アグリゲート内
158
次も参照 : Infinite Volume
ま
マルチディスク キャリア
Data ONTAPによる削除時の処理 29
スペアに関する要件 30
取り外せるかどうかの確認 29
マルチディスク キャリアのシェルフ
アグリゲート,ディスクを使用する場合の考慮事項
31
アグリゲートの構成要件 30
構成に関する要件 30
使用するための要件 28
み
ミラー検証
パフォーマンスへの影響の制御 131
ミラーされたアグリゲート
説明 135
ミラーされていないアグリゲート
説明 133
め
メディア エラー
防止するためのData ONTAPによるメディア スクラ
ビング 25
メディア スクラビング
Data ONTAPでの使用, メディア エラーの防止 25
システム パフォーマンスへの影響 25
スケジュールされたRAIDレベルのディスク スクラ
ビングの代わりに使用できない理由 25
も
元の所有者
ディスク所有権の種類, 定義 57
よ
要件
索引 | 223
使用するための要件 36
ストレージ管理に及ぼす影響 33
設定するためのノードの初期化 36
パーティショニングされるドライブ 34
標準的なレイアウト 34
ミスアライメントのあるスペア パーティションの修正
Flash Poolアグリゲートの使用 137
Infinite Volume, アグリゲート 161
ストレージ プールの使用 147
ルートデータのパーティショニングの使用 36
用語
ファミリー 155
容量
178
アグリゲートおよびシステムの計算方法 13
新しいInfinite Volume内での割り当て方法 163
ライセンス
V_StorageAttach 68
アレイLUNを使用するため 68
アレイLUNを使用するためのインストール 68
ループ
所有権の自動割り当ての設定 64
ループID
FC-AL接続ディスクの概要 18
ルール
Flash Poolアグリゲート内に複数のドライブ タイプを
混在させる場合 155
タイプの異なるHDDをアグリゲート内に混在させる
場合 154
り
れ
リセット
工場出荷時の設定へのSEDのリセット 111
利点
ストレージ暗号化 86
レイアウト
標準的な共有HDD 34
レベル
RAID保護, ディスク 112
連続メディア スクラビング
Data ONTAPでの使用, メディア エラーの防止 25
システム パフォーマンスへの影響 25
スケジュールされたRAIDレベルのディスク スクラ
ビングの代わりに使用できない理由 25
ら
る
ルートデータのパーティショニング
HDDの所有権の割り当て 62
アグリゲートの再配置に対する影響 193
アグリゲートの作成 170
概要 32
仕組み 32
使用しているノードでのアクティブ / アクティブ構成
の設定 41
使用するアグリゲートのサイズの拡張 174
わ
ワイルドカード文字
ディスク所有権コマンドでの使用 65
割り当て
アグリゲート 162