SUSE Linux Enterprise
Server 11 SP3
www.suse.com
2013 年 6 月
ストレージ管理ガイド
ストレージ管理ガイド
保証と著作権
Copyright © 2006–2013 Novell, Inc. and contributors. All rights reserved.
この文書は、GNUフリー文書ライセンスのバージョン1.2または(オプションとして)バー
ジョン1.3の条項に従って、複製、頒布、および/または改変が許可されています。ただし、
この著作権表示およびライセンスは変更せずに記載すること。ライセンスバージョン1.2の
コピーは、「GNUフリー文書ライセンス」セクションに含まれています。
本書のすべての情報は、細心の注意を払って編集されています。しかし、このことは絶対
に正確であることを保証するものではありません。Novell, Inc.、Suse Linux Products GmbH、
著者、翻訳者のいずれも誤りまたはその結果に対して一切の責任を負いかねます。
商標
Novellの商標については、商標とサービスマークの一覧 [http://www.novell.com/
company/legal/trademarks/tmlist.html]を参照してください。
Linux*は、Linus Torvalds氏の登録商標です。他のすべての第三者の商標は、各商標権者が
所有しています。
商標記号(®、™など) は、Novellの商標を示し、アスタリスク(*)は、サードパーティの商
標を示します。
目次
このガイドについて
xi
1 Linuxファイルシステムの概要
1
1.1 用語集 ............................................................................................... 2
1.2 Linuxの主要なファイルシステム ....................................................... 2
1.3 サポートされている他のファイルシステム ..................................... 20
1.4 Linux環境での大規模ファイルサポート ........................................... 22
1.5 Linuxのカーネルにおけるストレージの制限 .................................... 24
1.6 YaST パーティショナによるデバイスの管理 .................................... 25
1.7 追加情報 .......................................................................................... 25
2 SLES 11のストレージの新機能
27
2.1 SLES 11 SP3の新機能 ....................................................................... 27
2.2 SLES 11 SP2の新機能 ....................................................................... 28
2.3 SLES 11 SP1の新機能 ....................................................................... 29
2.4 SLES 11の新機能 .............................................................................. 33
3 ストレージソリューションのプラニング
39
3.1 デバイスのパーティショニング ....................................................... 39
3.2 マルチパスのサポート ..................................................................... 40
3.3 ソフトウェアRAIDのサポート ......................................................... 40
3.4 ファイルシステムのスナップショット ............................................ 40
3.5 バックアップとアーカイブのサポート ............................................ 40
4 LVMの設定
43
4.1 論理ボリュームマネージャ(LVM)の理解 .......................................... 44
4.2 LVMパーティションの作成 ............................................................. 46
4.3 ボリュームグループの作成 .............................................................. 49
4.4 物理ボリュームの設定 ..................................................................... 51
4.5 物理ボリュームの設定 ..................................................................... 53
4.6 非ルートLVMボリュームグループの自動アクティブ化 ................... 57
4.7 LVM2ストレージオブジェクトのタグ付け ....................................... 58
4.8 ボリュームグループのサイズ変更 ................................................... 67
4.9 YaSTによる論理ボリュームのサイズ変更 ........................................ 69
4.10 コマンドによる論理ボリュームのサイズ変更 ................................ 70
4.11 ボリュームグループの削除 ............................................................ 71
4.12 LVMパーティション(物理ボリューム)の削除 ................................. 72
5 ファイルシステムのサイズ変更
73
5.1 サイズ変更のガイドライン .............................................................. 73
5.2 Ext2、Ext3、またはExt4ファイルシステムのサイズの増加 .............. 75
5.3 Reiserファイルシステムのサイズの増加 .......................................... 77
5.4 Ext2またはExt3ファイルシステムのサイズの削減 ............................ 78
5.5 Reiserファイルシステムのサイズの削減 .......................................... 79
6 UUIDによるデバイスのマウント
81
6.1 udevによるデバイスの命名 .............................................................. 81
6.2 UUIDの理解 ..................................................................................... 82
6.3 ブートローダと/etc/fstabファイルでのUUIDの使用(x86の場合) ........ 83
6.4 ブートローダと/etc/fstabファイルでのUUIDの使用(IA64の場合) ...... 86
6.5 追加情報 .......................................................................................... 87
7 デバイスのマルチパスI/Oの管理
89
7.1 マルチパスI/Oの理解 ....................................................................... 90
7.2 マルチパス処理のプラニング .......................................................... 91
7.3 マルチパス管理ツール ................................................................... 108
7.4 マルチパス処理用システムの設定 .................................................. 118
7.5 マルチパスI/Oサービスの有効化と機動 .......................................... 121
7.6 /etc/multipath.conf Fileの作成または修正 ......................................... 122
7.7 ポーリング、待ち行列、およびフェールバック用のデフォルトポリシー
の設定 ................................................................................................. 128
7.8 非マルチパスデバイスのブラックリスト化 .................................... 129
7.9 ユーザフレンドリ名または別名の設定 ........................................... 130
7.10 zSeriesデバイスのデフォルト設定の設定 ...................................... 135
7.11 パスフェールオーバーのポリシーと優先度の設定 ........................ 136
7.12 ルートデバイスのマルチパスI/Oの設定 ........................................ 156
7.13 既存ソフトウェアRAID用マルチパスI/Oの設定 ............................ 161
7.14 新規デバイスのスキャン(再起動なし) .......................................... 164
7.15 パーティショニングされた新規デバイスのスキャン(再起動なし) . 168
7.16 マルチパスI/Oステータスの表示 .................................................. 170
7.17 エラーになったI/Oの管理 ............................................................. 172
7.18 停止したI/Oの解決 ....................................................................... 174
7.19 MPIOのトラブルシューティング .................................................. 174
7.20 次に行う作業 ............................................................................... 176
8 ソフトウェアRAIDの設定
177
8.1 RAIDレベルの理解 ......................................................................... 178
8.2 YaSTによるソフトウェアRAID設定 ............................................... 180
8.3 トラブルシューティングソフトウェアRAID .................................. 182
8.4 詳細情報 ........................................................................................ 183
9 ルートパーティション用のソフトウェアRAID1の設定
185
9.1 ルートパーティション用のソフトウェアRAID1デバイスを使用するた
めの前提条件 ...................................................................................... 185
9.2 インストール時にiSCSIイニシエータサポートを有効にする .......... 186
9.3 インストール時にマルチパスI/Oのサポートを有効にする .............. 187
9.4 ルート(/)パーティション用のソフトウェアRAID1デバイスの作成 .. 187
10 mdadmによるソフトウェアRAID 6および10の管理
195
10.1 RAID 6の作成 ............................................................................... 195
10.2 mdadmによるネストしたRAID 10デバイスの作成 ......................... 197
10.3 コンプレックスRAID 10の作成 .................................................... 203
10.4 ディグレードアレイの作成 .......................................................... 214
11 mdadmによるソフトウェアRAIDアレイのサイズ変更
217
11.1 サイズ変更プロセスの理解 ........................................................... 217
11.2 ソフトウェアRAIDのサイズの増加 .............................................. 220
11.3 ソフトウェアRAIDのサイズの削減 .............................................. 227
12 MDソフトウェアRAID用のストレージエンクロージャLED
ユーティリティ
235
12.1 サポートされているLED管理プロトコル ...................................... 236
12.2 サポートされているストレージエンクロージャシステム ............. 236
12.3 ストレージエンクロージャLED監視サービス(ledmon(8)) .............. 237
12.4 ストレージエンクロージャLED制御アプリケーション(ledctl(8)) ... 239
12.5 エンクロージャLEDユーティリティ設定ファイル(ledctl.conf(5)) ... 246
12.6 追加情報 ...................................................................................... 246
13 Linux用iSNS
247
13.1 iSNSのしくみ ............................................................................... 248
13.2 Linux用iSNSサーバのインストール .............................................. 249
13.3 iSNS検出ドメインの設定 .............................................................. 251
13.4 iSNSの起動 ................................................................................... 257
13.5 iSNSの停止 ................................................................................... 258
13.6 詳細情報 ...................................................................................... 258
14 IPネットワークの大容量記憶域: iSCSI
261
14.1 iSCSIターゲットおよびイニシエータのインストール ................... 264
14.2 iSCSIターゲットのセットアップ .................................................. 265
14.3 iSCSIイニシエータの設定 ............................................................. 276
14.4 インストール時のiSCSIディスクの使用 ........................................ 284
14.5 iSCSIのトラブルシューティング .................................................. 284
14.6 追加情報 ...................................................................................... 287
15 IP ネットワークの大容量記憶域: iSCSI LIOターゲットサー
バ
289
15.1 iSCSI LIOターゲットサーバソフトウェアのインストール ............ 290
15.2 iSCSI LIOターゲットサービスの開始 ........................................... 293
15.3 iSCSI LIOターゲットおよびクライアントのディスカバリに対する認証
の設定 ................................................................................................ 298
15.4 ストレージスペースの準備 .......................................................... 302
15.5 iSCSI LIOターゲットグループの設定 ........................................... 306
15.6 iSCSI LIOターゲットグループの変更 ........................................... 318
15.7 iSCSI LIOターゲットグループの削除 ........................................... 321
15.8 iSCSI LIOターゲットサーバのトラブルシューティング ............... 323
15.9 iSCSI LIOターゲットの用語 ......................................................... 324
16 Fibre Channel Storage over Ethernet Networks: FCoE
327
16.1 FCoEおよびYaSTのFCoEクライアントのインストール ................. 330
16.2 インストール時におけるFCoEインタフェースの設定 ................... 331
16.3 YaSTを使用したFCoEサービスの管理 .......................................... 332
16.4 コマンドを使用したFCoEの設定 .................................................. 338
16.5 FCoE管理ツールを使用したFCoEインスタンスの管理 .................. 339
16.6 FCoEイニシエータディスク用のパーティションの設定 ............... 344
16.7 FCoEイニシエータディスクでのファイルシステムの作成 ............ 345
16.8 追加情報 ...................................................................................... 346
17 ボリュームのスナップショット
347
17.1 ボリュームスナップショットの理解 ............................................ 347
17.2 LVMによるLinuxスナップショットの作成 .................................... 349
17.3 スナップショットの監視 .............................................................. 349
17.4 Linuxスナップショットの削除 ...................................................... 350
18 NFSv4上でのアクセス制御リストの管理
351
19 ストレージに関する問題のトラブルシュート
353
19.1 DM-MPIOはブートパーティションに使用できますか? ................. 353
19.2 iSCSIの問題 .................................................................................. 353
19.3 マルチパスI/Oの問題 .................................................................... 354
19.4 ソフトウェアRAIDの問題 ............................................................ 354
A GNU利用許諾契約書
355
A.1 GNU一般公開使用許諾 .................................................................. 355
A.2 GNUフリー文書利用許諾契約書(GFDL) ........................................ 359
B マニュアルの更新
363
B.1 2013年5月(SLES 11 SP3) ................................................................. 364
B.2 2013年3月19日 ............................................................................... 366
B.3 2013年3月11日 ............................................................................... 366
B.4 2013年2月8日 ................................................................................. 367
B.5 2013年1月8日 ................................................................................. 368
B.6 2012年11月14日 ............................................................................. 370
B.7 2012年10月29日 ............................................................................. 371
B.8 2012年10月19日 ............................................................................. 371
B.9 2012年9月28日 ............................................................................... 372
B.10 2012年4月12日 ............................................................................. 374
B.11 2012年2月27日(SLES 11 SP2) ........................................................ 375
B.12 2011年7月12日 ............................................................................. 380
B.13 2011年6月14日 ............................................................................. 380
B.14 2011年5月5日 ............................................................................... 381
B.15 2011年1月 .................................................................................... 381
B.16 2010年9月16日 ............................................................................. 382
B.17 2010年6月21日 ............................................................................. 383
B.18 2010年5月(SLES 11 SP1) ............................................................... 385
B.19 2010年2月23日 ............................................................................. 388
B.20 2009年12月1日 ............................................................................. 389
B.21 2009年10月20日 ........................................................................... 391
B.22 2009年8月3日 ............................................................................... 393
B.23 2009年6月22日 ............................................................................. 393
B.24 2009年5月21日 ............................................................................. 395
このガイドについて
このガイドでは、SUSE Linux Enterprise Server 11 SP3 (Support Pack 3)サーバで
ストレージデバイスを管理する方法を説明します。
対象読者
このガイドは、システム管理者を対象としています。
フィードバック
本マニュアルおよびこの製品に含まれているその他のマニュアルについて、
皆様のご意見やご要望をお寄せください。オンラインマニュアルの各ページ
の下部にあるユーザコメント機能を使用するか
www.novell.com/documentation/feedback.htmlにアクセスしてコメントを記入し
てください。
マニュアルの更新
『SUSE Linux Enterprise Server 11ストレージ管理ガイド』の最新バージョンに
ついては、SUSE Linux Enterprise Server 11用SUSEマニュアルWebサイト
[http://www.suse.com/documentation/sles11]をご覧ください。
その他のマニュアル
デバイスのパーティショニングと管理については、『SUSE Linux Enterprise
Server 11導入ガイド [https://www.suse.com/documentation/sles11/
book_sle_deployment/data/book_sle_deployment.html]』の「高度
なディスクセットアップ」 [http://www.suse.com/documentation/
sles11/book_sle_deployment/data/cha_advdisk.html]を参照して
ください。
Linuxファイルシステムの概要
1
SUSE Linux Enterprise Serverには、選択できる多数のさまざまなファイルシス
テム(Btrfs、Ext3、Ext2、ReiserFS、XFSなど)が付属しています。各ファイル
システムには、それぞれ独自の利点と欠点があります。
プロ級のハイパフォーマンスのセットアップには、可用性の高いストレージ
システムが必要なことがあります。ハイパフォーマンスのクラスタリングシ
ナリオの要件を満たすため、SUSE Linux Enterprise Serverでは、SLES HASI
(High-Availability Storage Infrastructure)リリースにOCFS2 (Oracle Cluster File
System 2)とDRBD (Distributed Replicated Block Device)を組み込んでいます。こ
れらの高度なストレージシステムは、本書では扱いません。『SUSE Linux
Enterprise 11 SP3 High Availability Extension Guide [http://www.suse.com/
documentation/sle_ha/book_sleha/data/book_sleha.html]』を参
照してください。
• 1.1項 「用語集」
(2 ページ)
• 1.2項 「Linuxの主要なファイルシステム」
(2 ページ)
• 1.3項 「サポートされている他のファイルシステム」
• 1.4項 「Linux環境での大規模ファイルサポート」
(20 ページ)
(22 ページ)
• 1.5項 「Linuxのカーネルにおけるストレージの制限」
(24 ページ)
• 1.6項 「YaST パーティショナによるデバイスの管理」
(25 ページ)
• 1.7項 「追加情報」
(25 ページ)
Linuxファイルシステムの概要
1
1.1 用語集
メタデータ(metadata)
ファイルシステムが内包するデータ構造です。これにより、すべてのオン
ディスクデータが正しく構成され、アクセス可能になります。本質的に
は、「データに関するデータ」です。ほとんどすべてのファイルシステム
に独自のメタデータ構造があり、それが各ファイルシステムに異なるパ
フォーマンス特性が存在する理由の1つになっています。メタデータが破
損しないよう維持するのは、非常に重要なことです。もし破損した場合、
ファイルシステム内にあるすべてのデータがアクセス不能になる可能性が
あるからです。
inode
サイズ、リンク数、ファイルの内容を実際に格納しているディスクブロッ
クへのポインタ、作成日時、変更日時、クセス日時など、ファイルに関す
る各種の情報を含むファイルシステムのデータ構造。
ジャーナル(journal)
ファイルシステムのジャーナルは、ファイルシステムがそのメタデータ内
で行う変更を特定のログに記録するオンディスク構造です。ジャーナル機
能は、システム起動時にファイルシステム全体をチェックする長い検索プ
ロセスが不要なため、ファイルシステムの回復時間を大幅に短縮します。
ただし、それはジャーナルが再現できる場合に限定されます。
1.2 Linuxの主要なファイルシステム
SUSE Linux Enterprise Serverでは、多様なファイルシステムを選択できます。
このセクションでは、それらのファイルシステムの機能および利点の概要を
説明します。
ただし、すべてのアプリケーションに最適なファイルシステムは存在しませ
ん。各ファイルシステムには特定の利点と欠点があり、それらを考慮する必
要があります。最も高度なファイルシステムを選択する場合でも、適切なバッ
クアップ戦略が必要です。
このセクションで使用されるデータの完全性およびデータの一貫性という用
語は、ユーザスペースデータ(ユーザが使用するアプリケーションによりファ
イルに書き込まれるデータ)の一貫性を指す言葉ではありません。ユーザス
2
ストレージ管理ガイド
ペースのデータが一貫しているかどうかは、アプリケーション自体が管理す
る必要があります。
重要
このセクションで特に指定のない限り、パーティションおよびファイルシ
ステムの設定または変更に必要なすべてのステップは、YaSTを使用して実
行できます。
• 1.2.1項 「Btrfs」
(3 ページ)
• 1.2.2項 「Ext2」
(8 ページ)
• 1.2.3項 「Ext3」
(9 ページ)
• 1.2.4項 「ReiserFS」
• 1.2.5項 「XFS」
(16 ページ)
(18 ページ)
• 1.2.6項 「ファイルシステムの機能比較」
(19 ページ)
1.2.1 Btrfs
Btrfsは、Chris Masonが開発したCOW(コピーオンライト)ファイルシステムで
す。このシステムは、Ohad Rodehが開発したCOWフレンドリーなBツリーに
基づいています。Btrfsは、ロギングスタイルのファイルシステムです。この
システムでは、ブロックの変更をジャーナリングする代わりに、それらの変
更を新しい場所に書き込んで、リンクインします。新しい変更は、最後の書
き込みまで確定されません。
重要
Btrfsではファイルシステムのスナップショットを格納することができるた
め、標準のストレージ案の2倍のディスクスペースを確保しておくことが推
奨されます。これは、YaSTパーティショナにより、ルートファイルシステ
ムに対するBtrfsのストレージ案において、自動的に行われます。
Btrfsは、次のような耐障害性、修復、容易な管理機能を提供します。
Linuxファイルシステムの概要
3
• 書き込み可能なスナップショット。更新適用後に必要に応じてシステムを
容易にロールバックしたり、ファイルをバックアップできます。
• 複数デバイスのサポート。ファイルシステムを拡大したり、縮小できます。
この機能は、YaSTパーティショナの今後のリリースで利用可能となる予定
です。
• 圧縮機能。ストレージスペースを効率的に使用できます。
Btrfsのコマンドを使用して、透過圧縮を設定します。 この機能は、YaST
パーティショナの今後のリリースで利用可能となる予定です。
• メタデータとユーザデータ用のさまざまなRAIDレベル。
• メタデータとユーザデータ用のさまざまなチェックサム。エラー検出が向
上します。
• Linux LVM (Logical Volume Manager)ストレージオブジェクトとの統合。
• SUSE Linux上でのYaSTパーティショナおよびAutoYaSTとの統合。
• 既存のExt2、Ext3、およびExt4ファイルシステムからの、オフラインのマイ
グレーション 。
ブートローダのサポート
Btrfs上の/bootに対するブートローダのサポートは、SUSE Linux Enterprise 12
から利用可能となる予定です。
Btrfsのサブボリューム
BtrFSでは、割り当てられたスペースのプールにデフォルトのサブボリューム
が作成されます。BtrFSでは、同じスペースプール内で個々のファイルシステ
ムとして機能する追加サブボリュームを作成できます。サブボリュームの数
は、プールに割り当てられたスペースによってのみ制限されます。
Btrfsをルート(/)のファイルシステムに使用する場合は、YaSTパーティショナ
により、Btrfsのサブボリュームとの使用のためのBtrfsファイルシステムが自
動的に作成されます。いずれのサブディレクトリも、サブボリュームとして
扱うことができます。たとえば、表1.1「YaSTにおける、Btrfs用のデフォルト
4
ストレージ管理ガイド
のサブボリュームの扱い」 (5 ページ)には、サブボリュームとして扱うこと
をが推奨されるサブディレクトリを示しています。これらのサブディレクト
リには、記載の理由によりスナップショットするべきではないファイルが含
まれているからです。
表 1.1 YaSTにおける、Btrfs用のデフォルトのサブボリュームの扱い
パス
サブボリュームとして扱う理由
/opt
サードパーティのアドオンアプリケーションのソフト
ウェアパッケージを格納します。
/srv
httpファイルとftpファイルを格納します。
/tmp
一時ファイルを格納します。
/var/crash
クラッシュしたカーネルのメモリダンプを格納します。
/var/log
システムおよびアプリケーションのログファイルを格
納します。これはロールバックできません。
/var/run
ランタイム変数のデータを格納します。
/var/spool
プログラム、ユーザ、または管理者による処理を待っ
ているデータ(ニュース、メール、プリンタのキューな
ど)を格納します。
/var/tmp
システムの再起動間で保存する一時ファイルまたは一
時ディレクトリを格納します。
インストール後は、YaST Expert Partitionerを使用して、Btrfsサブボリュームの
追加や削除が可能です。詳細については、『SUSE Linux Enterprise Server 11
SP3導入ガイド』の、「YaSTを使用したBtrfsサブボリュームの管理」
[https://www.suse.com/documentation/sles11/book_sle
_deployment/data/sec_yast2_i_y2_part_expert.html#yast2
_btrfs_yast]https://www.suse.com/documentation/sles11/book
_sle_deployment/data/book_sle_deployment.htmlを参照してくだ
さい。
Linuxファイルシステムの概要
5
ルートファイルシステムのスナップショット
Btrfsでは、SUSE Snapperのインフラストラクチャに書き込み可能なスナップ
ショットが提供されており、これを使用して、更新プログラムの適用後に必
要に応じてシステムをロールバックすることも、バックアップすることもで
きます。Snapperを使用すれば、スナップショットの作成や削除のほか、2つの
スナップショットを比較してその相違を元に戻すこともできます。Btrfsをルー
ト(/)ファイルシステムに使用した場合は、YaSTによりルートファイルシステ
ムに対するスナップショットが自動的に有効化されます。
Snapperと、ZYpp (snapper-zypp-plugin)およびYaST (yast2-snapper)
におけるその統合については、『SUSE Linux Enterprise Server 11 SP3管理ガイ
ド』の「Snapperを使用したスナップショット/ロールバック」 [http://www
.suse.com/documentation/sles11/book_sle_admin/data/cha
_snapper.html]http://www.suse.com/documentation/sles11/book
_sle_admin/data/book_sle_admin.htmlを参照してください。
SUSEのSnapperプロジェクトについては、OpenSUSE.orgにあるSnapper Portal
wiki [http://en.opensuse.org/Portal:Snapper]を参照してください。
オンラインでのチェックと修復の機能
scrubを使用したチェックと修復の機能が、Btrfsのコマンドラインツールの
一部として利用できます。ツリー構造が正しいことを前提として、データと
メタデータの完全性を検証します。マウントしたファイルシステム上で、
scrubを定期的に実行することができます。これは、通常の操作中にバック
グラウンドプロセスとして実行されます。
RAIDとMultipathのサポート
YaSTパーティショナを使用して、Multiple Devices (MD)およびDevice Mapper
(DM)のストレージ構成上でBtrfsを作成することができます。
ExtファイルシステムからBtrfsへのマイグレーション
既存のExtファイルシステム(Ext2、Ext3、またはExt4)から、Btrfsファイルシス
テムへデータボリュームをマイグレートすることができます。変換プロセス
6
ストレージ管理ガイド
はオフラインで、デバイス上において行われます。ファイルシステムは、デ
バイス上の空き領域の15%以上を必要とします。
ExtファイルシステムをBtrfsに変換するには、ファイルシステムをオフライン
にしてから、次のように入力します。
btrfs-convert <device>
マイグレーションを、元のExtファイルシステムにロールバックするには、
ファイルシステムをオフラインにしてから、次のように入力します。
btrfs-convert -r <device>
重要
元のExtファイルシステムにロールバックする際、Btrfsへの変換後に追加し
たデータはすべて失われます。つまり、元のデータのみが、Extファイルシ
ステムに逆変換されます。
Btrfsの管理
Btrfsは、YaSTパーティショナおよびAutoYaST内に統合されています。これは
インストール時に利用可能で、ルートファイルシステム用のソリューション
を設定することができます。インストール後に、YaSTパーティショナを使用
して、Btrfsのボリュームの参照と管理を行うことができます。
Btrfsの管理ツールは、btrfsprogsパッケージ内に用意されています。Btrfs
コマンドの使用については、btrfs(8)、btrfsck(8)、mkfs.btrfs(8)、
およびbtrfsctl(8) のマニュアルページを参照してください。Btrfsの機能
については、Btrfs wiki [http://btrfs.wiki.kernel.org]を参照してくだ
さい。
fsck.btrfs(8)ツールは、SUSE Linux Enterpriseの更新リポジトリ内で近日
中に利用可能となります。
Linuxファイルシステムの概要
7
サブボリュームに対するBtrfsクォータのサポート
Btrfs rootファイルシステムのサブボリューム/var/log、/var/crashおよ
び/var/cacheが、通常の操作時に利用可能なディスクスペースのすべてを
使用でき、システムに不具合が発生します。この状況を回避するため、SUSE
Linux Enterpriseではサブボリュームに対するBtrfsクォータのサポートを提供す
るようになりました。詳細については、btrfs(8)のマニュアルページを参
照してください。
1.2.2 Ext2
Ext2の起源は、Linuxの歴史の初期にさかのぼります。その前身であった
Extended File Systemは、1992年4月に実装され、Linux 0.96cに統合されました。
Extended File Systemは多くの変更を加えられ、Ext2として数年にわたって、最
も人気のあるLinuxファイルシステムになりました。その後、ジャーナルファ
イルシステムが作成され、回復時間が非常に短くなったため、Ext2の重要性
は低下しました。
Ext2の利点の概要を読むと、Ext2が、かつて幅広く好まれ、そして今でも一部
の分野で多くのLinuxユーザから好まれるLinuxファイルシステムである理由が
わかります。
• 1.2.2.1項 「堅実性と速度」
(8 ページ)
• 1.2.2.2項 「容易なアップグレード性」
(9 ページ)
1.2.2.1 堅実性と速度
「古くからある標準」として、Ext2は過去に多くの改良がなされ、繰り返し
テストされてきました。これが、Ext2がしばしば非常に堅実と評される理由
かもしれません。ファイルシステムが正常にアンマウントできず、システム
が機能停止した場合、e2fsckはファイルシステムのデータの分析を開始しま
す。メタデータは一貫した状態に戻り、保留されていたファイルとデータブ
ロックは、指定のディレクトリ(lost+found)に書き込まれます。ジャーナル
ファイルシステムとは対照的に、e2fsckは、最近変更されたわずかなメタデー
タだけではなく、ファイルシステム全体を分析します。この結果、ジャーナ
ルファイルシステムがログデータだけをチェックするのに比べて、かなり長
い時間を要します。ファイルシステムのサイズにもよりますが、この手順は
8
ストレージ管理ガイド
30分またはそれ以上を要することがあります。したがって、高可用性を必要
とするどのようなサーバでも、Ext2を選択することは望ましくありません。
ただし、Ext2はジャーナルを維持せず、使用するメモリも非常にわずかであ
るため、他のファイルシステムよりも高速である場合があります。
1.2.2.2 容易なアップグレード性
Ext3は、Ext2のコードをベースとし、Ext2のオンディスクフォーマットとメタ
データフォーマットも共用するので、Ext2からExt3へのアップグレードは非常
に容易です。
1.2.3 Ext3
Ext3は、Stephen Tweedieによって設計されました。他のすべての次世代ファ
イルシステムとは異なり、Ext3は完全に新しい設計理念に基づいているわけ
ではありません。Ext3は、Ext2をベースとしています。これら2つのファイル
システムは、非常に似ています。Ext3ファイルシステムを、Ext2ファイルシス
テムの上に構築することも容易です。Ext2とExt3の最も重要な違いは、Ext3が
ジャーナルをサポートしていることです。要約すると、Ext3には、次の3つの
主要な利点があります。
• 1.2.3.1項 「Ext2からの容易で信頼性の高いアップグレード」
• 1.2.3.2項 「信頼性とパフォーマンス」
(9 ページ)
(10 ページ)
• 1.2.3.3項 「Ext2ファイルシステムからExt3への変換」
(10 ページ)
• 1.2.3.4項 「Ext3ファイルシステムのinodeサイズとinode数」
(11 ページ)
1.2.3.1 Ext2からの容易で信頼性の高いアップグレード
Ext2のコードは、Ext3が次世代ファイルシステムであることを明確に主張する
ための強力な土台になりました。Ext3では、Ext2の信頼性および堅実性がExt3
で採用されたジャーナルファイルシステムの利点とうまく統合されています。
ReiserFSまたはXFSのような他のファイルシステムへの移行はかなり手間がか
かります(ファイルシステム全体のバックアップを作成し、移行先ファイルシ
ステムを新規に作成する必要があります)が、それとは異なり、Ext3への移行
は数分で完了します。ファイルシステム全体を新たに作成し直しても、それ
Linuxファイルシステムの概要
9
が完璧に動作するとは限らないので、Ext3への移行は非常に安全でもありま
す。ジャーナルファイルシステムへのアップグレードを必要とする既存のExt2
システムの数を考慮に入れると、多くのシステム管理者にとってExt3が重要
な選択肢となり得る理由が容易にわかります。Ext3からExt2へのダウングレー
ドも、アップグレードと同じほど容易です。Ext3ファイルシステムのアンマ
ウントを正常に行い、Ext2ファイルシステムとして再マウントするだけです。
1.2.3.2 信頼性とパフォーマンス
他のジャーナルファイルシステムは、「メタデータのみ」のジャーナルアプ
ローチに従っています。つまり、メタデータは常に一貫した状態に保持され
ますが、ファイルシステムのデータ自体については、一貫性が自動的に保証
されるわけではありません。Ext3は、メタデータとデータの両方に注意する
よう設計されています。「注意」の度合いはカスタマイズできます。Ext3の
data=journalモードを有効にした場合、最大の保護(データの完全性)を実
現しますが、メタデータとデータの両方がジャーナル化されるので、システ
ムの動作が遅くなります。比較的新しいアプローチは、data=orderedモー
ドを使用することです。これは、データとメタデータ両方の完全性を保証し
ますが、ジャーナルを適用するのはメタデータのみです。ファイルシステム
ドライバは、1つのメタデータの更新に対応するすべてのデータブロックを収
集します。これらのブロックは、メタデータの更新前にディスクに書き込ま
れます。その結果、パフォーマンスを犠牲にすることなく、メタデータとデー
タの両方に関する一貫性を達成できます。3番目のオプションは、
data=writebackを使用することです。これは、対応するメタデータをジャー
ナルにコミットした後で、データをメインファイルシステムに書き込むこと
を可能にします。多くの場合、このオプションは、パフォーマンスの点で最
善と考えられています。しかし、内部のファイルシステムの完全性が維持さ
れる一方で、クラッシュと回復を実施した後では、古いデータがファイル内
に再登場させてしまう可能性があります。Ext3では、デフォルトとして、
data=orderedオプションを使用します。
1.2.3.3 Ext2ファイルシステムからExt3への変換
Ext2ファイルシステムをExt3に変換するには、次の手順に従います。
1 Ext3ジャーナルの作成には、tune2fs -jをrootユーザとして実行しま
す。
10
ストレージ管理ガイド
この結果、デフォルトのパラメータを使用してExt3ジャーナルが作成され
ます。
ジャーナルのサイズおよびジャーナルを常駐させるデバイスを指定するに
は、tune2fs -Jとともに適切なジャーナルオプションsize=および
device=を指定して、実行します。tune2fsプログラムの詳細について
は、tune2fsのマニュアルページを参照してください。
2 ファイル/etc/fstabをrootユーザとして編集して、該当するパーティ
ションに指定されているファイルシステムタイプをext2からext3に変更
し、その変更内容を保存します。
これにより、Ext3ファイルシステムが認識されるようになります。この変
更結果は、次回の再起動後に有効になります。
3 Ext3パーティションとしてセットアップされたルートファイルシステムを
ブートするには、ext3とjbdの各モジュールをinitrdに組み込みます。
3a /etc/sysconfig/kernelをrootとして編集し、ext3およびjbd
をINITRD_MODULES変数に追加し、最後に変更内容を保存します。
3b mkinitrdコマンドを実行します。
これにより新規のinitrdがビルドされ、すぐに使用できます。
4 システムを再起動します。
1.2.3.4 Ext3ファイルシステムのinodeサイズとinode
数
inodeには、ファイルシステム内のファイルとそのブロック位置に関する情報
が格納されます。拡張した属性とACLのためのスペースをinode内に確保する
ため、Ext3のデフォルトのinodeサイズは、SLES 10での128バイトから、SLES
11では256バイトに拡大されました。SLES 10と比較して、SLES 11上でExt3
ファイルシステムを作成する際、同数のinodeに対する事前割り当てされたデ
フォルトのスペースの量は2倍になり、ファイルシステム内のファイルに対し
て使用可能なスペースは、その分少なくなっています。したがって、同数の
Linuxファイルシステムの概要
11
inodeとファイルを収容するのに、SLES 10上のExt3ファイルシステムの場合よ
り大きなパーティションを使用する必要があります。
新規のExt3ファイルシステムを作成する際、inodeテーブル内のスペースは、
作成可能なinodeの総数に対して事前に割り当てられています。バイト数/inode
数の比率と、ファイルシステムのサイズによって、inode数の上限が決まりま
す。ファイルシステムが作成されると、バイト数/inode数のバイト数の各ス
ペースに対して、1つのinodeが作成されます。
number of inodes = total size of the file system divided by the number of
bytes per inode
inodeの数によって、ファイルシステム内に保有できるファイルの数が決まり
ます。つまり、各ファイルにつき1つのinodeです。inodeサイズの増大と、利
用可能なスペースの縮小に対応するため、バイト数/inode数の比率のデフォル
トが、SLES 10での8192バイトから、SLES 11では16384バイトに増えていま
す。この2倍に増えた比率により、作成可能なファイルの数は、SLES 10上の
Ext3ファイルシステムで可能だった数の半分となります。
重要
inodeの割り当て後は、inodeサイズやバイト数/inode数の比率の設定を変え
ることはできません。異なる設定のファイルシステムを再度作成するか、
ファイルシステムを拡張しない限り、新規のinodeは設定できません。inode
の最大数を超えると、ファイルをいくつか削除するまで、ファイルシステ
ム上に新規のファイルを作成することはできません。
新規のExt3ファイルシステムを作成する際に、inodeのスペース使用をコント
ロールするためのinodeサイズとバイト数/inode数の比率、およびファイルシス
テム上のファイル数の上限を指定することができます。ブロックサイズ、inode
サイズ、およびバイト数/inode数の比率が指定されない場合は、/etc/mked2fs
.confファイル内のデフォルト値が適用されます。詳細については、mke2fs
.conf(5)マニュアルページを参照してください。
次のガイドラインを使用します。
• inodeサイズ: デフォルトのinodeサイズは256バイトです。2の累乗で、ブ
ロックサイズ以下の128以上のバイト数の値を指定します(128、256、512な
ど)。Ext3ファイルシステムで拡張属性またはACLを使用しない場合は、128
バイトのみを使用してください。
12
ストレージ管理ガイド
• バイト数/inode数の比率: デフォルトのバイト数/inode数の比率は、16384バ
イトです。有効なバイト数/inode数の比率は、2の累乗で1024バイト以上
(1024、2048、4096、8192、16384、32768など)です。この値は、ファイルシ
ステムのブロックサイズより小さくはできません。なぜなら、ブロックサ
イズは、データを格納するために使用するスペースの最小チャンクだから
です。Ext3ファイルシステムのデフォルトのブロックサイズは、4 KBです。
また、格納する必要があるファイルの数とサイズを、検討する必要があり
ます。たとえば、ファイルシステムに多数の小さなファイルを持つことに
なる場合は、バイト数/inode数の比率を小さめに指定すれば、inodeの数を増
やすことができます。ファイルシステムに非常に大きなファイルを入れる
場合は、バイト数/inode数の比率を大きめに指定できますが、それによって
許容されるinodeの数は減ります。
一般的に、inodeの数は、足りなくなるよりは多すぎる方が得策です。inode
の数が少な過ぎてファイルも非常に小さい場合、実際には空であってもディ
スク上のファイルの最大数に到達してしまいます。inodeの数が多すぎて、
ファイルが非常に大きい場合は、空き領域があることが表示されたとして
も、それを使うことができません。なぜなら、inode用に確保されたスペー
スに新規のファイルを作成することはできないからです。
Ext3ファイルシステムで拡張属性またはACLを使用しない場合は、ファイル
システムの作成時に、inodeサイズとして128バイト、バイト数/inode数の比率
として8192バイトを指定して、SLES 10の動作を復元することができます。
inodeサイズとバイト数/inode数の比率を設定するには、次のいずれかの方法を
使用します。
• すべての新規Ext3ファイルのデフォルト設定を変更する: テキストエディタ
で、/etc/mke2fs.confファイルのdefaultsセクションを変更して、
inode_sizeおよびinode_ratioを、希望するデフォルト値に設定しま
す。その値が、すべての新規のExt3ファイルシステムに適用されます。た
とえば、
blocksize = 4096
inode_size = 128
inode_ratio = 8192
• コマンドラインで: Ext3ファイルシステムを作成する際に、inodeサイズ(-I
128)およびバイト数/inode数の比率(-i 8192)を、mkfs.ext3(8)コマンド
Linuxファイルシステムの概要
13
またはmke2fs(8)コマンドに渡します。たとえば、次のコマンドのいずれ
かを使用します:
mkfs.ext3 -b 4096 -i 8092 -I 128 /dev/sda2
mke2fs -t ext3 -b 4096 -i 8192 -I 128 /dev/sda2
• YaSTを使用したインストール時に: インストール時に新規のExt3ファイル
システムを作成する際に、inodeサイズとバイト数/inode数の比率を渡しま
す。YaST[フォーマット設定のオプション]にある[パーティションの編
集]ページで、[パーティションのフォーマット][Ext3]を選択して、
[オプション]をクリックします。[ファイルシステムオプション]ダイ
アログボックスで、[ブロックサイズ(バイト単位)]、[inodeごとのバイ
ト数]、および[iノードのサイズ]ドロップダウンリストから、希望の値
を選択します。
たとえば、[ブロックサイズ(バイト単位)]ドロップダウンリストから4096
を選択し、[ブロックサイズ(バイト単位)]ドロップダウンリストから8192
を選択し、[iノードのサイズ]ドロップダウンリストから128を選択して、
[OK]をクリックします。
14
ストレージ管理ガイド
• autoyastを使用したインストール時に: autoyastのプロファイルで、
fs_optionsタグを使用して、opt_bytes_per_inodeの比率の値を、-i
に対して8192に、opt_inode_densityの値を-Iに対して128に設定するこ
とができます。
<partitioning config:type="list">
<drive>
<device>/dev/sda</device>
<initialize config:type="boolean">true</initialize>
<partitions config:type="list">
<partition>
Linuxファイルシステムの概要
15
<filesystem config:type="symbol">ext3</filesystem>
<format config:type="boolean">true</format>
<fs_options>
<opt_bytes_per_inode>
<option_str>-i</option_str>
<option_value>8192</option_value>
</opt_bytes_per_inode>
<opt_inode_density>
<option_str>-I</option_str>
<option_value>128</option_value>
</opt_inode_density>
</fs_options>
<mount>/</mount>
<partition_id config:type="integer">131</partition_id>
<partition_type>primary</partition_type>
<size>25G</size>
</partition>
SLES11のExt3パーティションには、SLES10で格納できるファイルの50%しか
格納することができません。詳細については[技術情報文書7009075]を参照し
てください [http://www.novell.com/support/kb/doc.php?id=
7009075]。
1.2.4 ReiserFS
2.4カーネルリリースから公式に主要機能として採用されたReiserFSは、SUSE
6.4以降、2.2.x SUSEカーネルのカーネルパッチとして利用可能となりました。
ReiserFSは、Hans ReiserとNamesys開発チームにより設計されました。ReiserFS
は、Ext2に代わる強力な選択肢であることを実証してきました。ReiserFSの主
要な利点としては、効率的なディスクスペース使用率、より良いディスクア
クセスパフォーマンス、より高速なクラッシュリカバリ、およびデータジャー
ナリングの使用による信頼性の向上があります。
重要
ReiserFSファイルシステムは、特にマイグレーション用として、SUSE Linux
Enterprise Server 11のライフタイムの間、完全にサポートされます。SUSEで
は、SUSE Linux Enterprise Server 12から、新しいReiserFSファイルシステム
の作成をサポートしない予定です。
• 1.2.4.1項 「より良いディスクスペース使用効率」
16
ストレージ管理ガイド
(17 ページ)
• 1.2.4.2項 「より良いディスクアクセスパフォーマンス」
• 1.2.4.3項 「高速なクラッシュ回復機能」
(17 ページ)
(17 ページ)
• 1.2.4.4項 「データジャーナリングによる信頼性」
(17 ページ)
1.2.4.1 より良いディスクスペース使用効率
ReiserFSでは、すべてのデータが、B*-Tree(バランスドツリー)と呼ばれる構造
で編成されています。このツリー構造は、より良いディスクスペース使用効
率に貢献しています。小さなファイルは、B*-Treeのリーフノードに直接格納
されるからです。そのようなファイルをどこか他の場所に格納して、ディス
ク上の実際の場所を指すポインタを維持するより優れています。それに加え
て、ストレージ(記憶領域)は 1KBまたは 4KBのチャンク単位で割り当てられ
るのではなく、実際に必要なサイズの構成部分(エクステント)を割り当てられ
ます。もう1つの利点は、inodeの動的割り当てに関係しています。これは、
ファイルシステムの作成時にinodeの密度を指定する必要のある、Ext2のよう
な従来のファイルシステムに比べて、ファイルシステムの柔軟性を高めます。
1.2.4.2 より良いディスクアクセスパフォーマンス
小規模なファイルでは、多くの場合、ファイルのデータと「stat_data」 (inode)
情報が互いに隣り合って保存されます。これらは1回のディスクI/O操作で読
み取れるので、1回のディスクアクセスで、必要な情報すべてを取得できるこ
とを意味します。
1.2.4.3 高速なクラッシュ回復機能
ジャーナルを使用して、メタデータに加えられた最新の変更結果を記録して
いるので、ファイルシステムが大規模な場合を含め、ファイルシステムを数
秒でチェックできます。
1.2.4.4 データジャーナリングによる信頼性
ReiserFSは、1.2.3項 「Ext3」 (9 ページ)に概略されているコンセプトに類似
のデータジャーナリングおよびオーダードモードもサポートしています。デ
フォルトのモードは、data=orderedです。このモードでは、データとメタ
Linuxファイルシステムの概要
17
データの完全性は保証されますが、メタデータのジャーナリングだけが行わ
れます。
1.2.5 XFS
本来は、IRIX OS用のファイルシステムを意図してSGIがXFSの開発を開始し
たのは、1990年代初期です。XFSの開発動機は、ハイパフォーマンスの64ビッ
トジャーナルファイルシステムの作成により、非常に厳しいコンピューティ
ングの課題に対応することでした。XFSは大規模なファイルを操作する点で
非常に優れていて、ハイエンドのハードウェアを適切に活用します。しかし、
XFSには1つの欠点があります。ReiserFSの場合と同様、XFSではメタデータ
の完全性は重視されていますが、データの完全性はそれほどではありません。
ただし、XFSの主要機能を一見すれば、XFSが、ハイエンドコンピューティン
グの分野で、他のジャーナリングファイルシステムの強力な競合相手となっ
ている理由がわかります。
• 1.2.5.1項 「アロケーショングループの採用による高いスケーラビリティ」
(18 ページ)
• 1.2.5.2項 「ディスクスペースの効率的な管理によるハイパフォーマンス」
(19 ページ)
• 1.2.5.3項 「事前割り当てによるファイルシステムの断片化の回避」
(19 ページ)
1.2.5.1 アロケーショングループの採用による高いス
ケーラビリティ
XFSファイルシステムの作成時に、ファイルシステムの基にあるブロックデ
バイスは、等しいサイズをもつ8つ以上の線形の領域に分割されます。これら
を「アロケーショングループ」と呼びます。各アロケーショングループは、
独自のinodeと空きディスクスペースを管理します。実用的には、アロケーショ
ングループを、1つのファイルシステムの中にある複数のファイルシステムと
見なすこともできます。アロケーショングループは互いに独立しているもの
ではないため、複数のアロケーショングループをカーネルから同時にアドレ
ス指定できるという特徴があります。この機能は、XFSの高いスケーラビリ
18
ストレージ管理ガイド
ティに大きく貢献しています。独立性の高いアロケーショングループは、性
質上、マルチプロセッサシステムのニーズに適しています。
1.2.5.2 ディスクスペースの効率的な管理によるハイパ
フォーマンス
空きスペースとinodeは、各アロケーショングループ内のB+-Treeによって処理
されます。B+ツリーの採用は、XFSのパフォーマンスとスケーラビリティを
大きく向上させています。XFSでは、プロセスを2分割して割り当てを処理す
る遅延割り当てを使用します。保留されているトランザクションはRAMの中
に保存され、適切な量のスペースが確保されます。XFSは、この時点では、
データを正確にはどこに(ファイルシステムのどのブロックに)格納するか決定
していません。決定可能な最後の瞬間まで、この決定は遅延(先送り)されま
す。暫定的に使用される一時データは、ディスクに書き込まれません。XFS
がデータの実際の保存場所を決定するまでに、その役割を終えているからで
す。このように、XFSは、書き込みのパフォーマンスを向上させ、ファイル
システムのフラグメンテーションを減少させます。遅延アロケーションは、
他のファイルシステムより書き込みイベントの頻度を下げる結果をもたらす
ので、書き込み中にクラッシュが発生した場合、データ損失が深刻になる可
能性が高くなります。
1.2.5.3 事前割り当てによるファイルシステムの断片化
の回避
データをファイルシステムに書き込む前に、XFSはファイルが必要とする空
きスペースを予約(プリアロケート、事前割り当て)します。したがって、ファ
イルシステムの断片化は大幅に減少します。ファイルの内容がファイルシス
テム全体に分散することがないので、パフォーマンスが向上します。
1.2.6 ファイルシステムの機能比較
SUSE Linux Enterprise Serverにおける主要オペレーティングシステムの機能の
対照比較については、ファイルシステムのサポートおよびサイズ [http://
www.suse.com/products/server/technical-information/
#FileSystem](SUSE Linux Enterprise Server技術情報のWebサイト [http://
Linuxファイルシステムの概要
19
www.suse.com/products/server/technical-information/]に記載)
を参照してください。
1.3 サポートされている他のファイル
システム
表1.2「Linux環境でのファイルシステムのタイプ」 (20 ページ)は、Linuxがサ
ポートしている他のいくつかのファイルシステムを要約したものです。これ
らは主に、他の種類のメディアや外部オペレーティングシステムとの互換性
およびデータの相互交換を保証することを目的としてサポートされています。
表 1.2 Linux環境でのファイルシステムのタイプ
20
ファイルシス
テムのタイプ
説明
cramfs
Compressed ROM file system (圧縮ROMファイルシステ
ム): ROM用の圧縮された読み込み専用ファイルシステ
ムです。
hpfs
High Performance File System(ハイパフォーマンスファ
イルシステム): IBM OS/2の標準ファイルシステム。
読み取り専用モードでのみサポートされます。
iso9660
CD-ROMの標準ファイルシステム。
minix
このファイルシステムは、オペレーティングシステム
に関する学術的なプロジェクトを起源とするもので、
Linuxで最初に使用されたファイルシステムです。現在
では、フロッピーディスク用のファイルシステムとし
て使用されています。
msdos
fat、つまり当初はDOSで使用されていたファイルシ
ステムであり、現在はさまざまなオペレーティングシ
ステムで使用されています。
ストレージ管理ガイド
ファイルシス
テムのタイプ
説明
ncpfs
Novellのボリュームをネットワーク経由でマウントす
るためのファイルシステム。
nfs
Network File System (ネットワークファイルシステム):
ネットワーク内の任意のコンピュータにデータを格納
でき、ネットワーク経由でアクセスを付与できます。
ntfs
Windows NT file system (NTファイルシステム): 読み取
り専用です。
smbfs
Server Message Block (サーバメッセージブロック):
Windowsのような製品が、ネットワーク経由でのファ
イルアクセスを可能にする目的で採用しています。
sysv
SCO UNIX、Xenix、およびCoherent (PC用の商用UNIX
システム)が採用。
ufs
BSD、SunOS、およびNextStepで使用されています。読
み取り専用モードでサポートされています。
umsdos
UNIX on MS-DOS(MS-DOS上のUNIX): 標準fatファイ
ルシステムに適用され、特別なファイルを作成するこ
とにより、UNIX機能(パーミッション、リンク、長い
ファイル名)を実現します。
vfat
Virtual FAT: fatファイルシステムを拡張したものです
(長いファイル名をサポートします)。
Linuxファイルシステムの概要
21
1.4 Linux環境での大規模ファイルサ
ポート
当初、Linuxは、最大ファイルサイズとして 2GiB (231バイト)をサポートして
いました。また、ファイルシステムに大規模ファイルサポートが付いていな
い限り、32ビットシステム上での最大ファイルサイズは2GiBです。
現在、弊社のすべての標準ファイルシステムでは、LFS (大規模ファイルサ
ポート)を提供しています。LFSは、理論的には、263バイトの最大ファイルサ
イズをサポートします。表1.3「ファイルおよびファイルシステムの最大サイ
ズ(オンディスクフォーマット、4KiBブロックサイズ)」 (22 ページ)では、
Linuxのファイルとファイルシステムの、現行のオンディスクフォーマットの
制限事項を概説しています。表内の数字は、ファイルシステムで使用してい
るブロックサイズが、共通規格である4KiBであることを前提としています。
異なるブロックサイズを使用すると結果は異なります。スパースブロックを
使用している場合、表1.3「ファイルおよびファイルシステムの最大サイズ(オ
ンディスクフォーマット、4KiBブロックサイズ)」 (22 ページ)に記載の最大
ファイルサイズは、ファイルシステムの実際のサイズより大きいことがあり
ます。
注記
このマニュアルでの換算式: 1024バイト = 1KiB、1024KiB = 1MiB、1024MiB
= 1GiB、1024GiB = 1TiB、1024TiB = 1PiB、1024PiB = 1EiB(「NIST: Prefixes
for Binary Multiples [http://physics.nist.gov/cuu/Units/binary
.html]」も参照してください)。
表 1.3 ファイルおよびファイルシステムの最大サイズ(オンディスクフォー
マット、4KiBブロックサイズ)
22
ファイルシステム
(4KiBブロックサイズ)
ファイルシステムの
最大サイズ
ファイルの最大サイ
ズ
Btrfs
16EiB
16EiB
Ext3
16TiB
2TiB
ストレージ管理ガイド
ファイルシステム
(4KiBブロックサイズ)
ファイルシステムの
最大サイズ
ファイルの最大サイ
ズ
OCFS2 (High
Availability Extension
で使用可能な、クラ
スタ認識のファイル
システム)
164TiB
1EiB
ReiserFS v3.6
16TiB
1EiB
XFS
8EiB
8EiB
NFSv2 (クライアント
側)
8EiB
2GiB
NFSv3 (クライアント
側)
8EiB
8EiB
重要
表1.3「ファイルおよびファイルシステムの最大サイズ(オンディスクフォー
マット、4KiBブロックサイズ)」 (22 ページ)は、ディスクフォーマット時の
制限について説明しています。Linuxカーネルは、操作するファイルとファ
イルシステムのサイズについて、独自の制限を課しています。管理の初期
設定には、次のオプションがあります。
ファイルサイズ
41
32ビットシステムでは、ファイルサイズが2TiB (2 バイト)を超えるこ
とはできません。
ファイルシステムのサイズ
73
ファイルシステムのサイズは、最大2 バイトまで可能です。しかし、
この制限は、現在使用可能なハードウェアが到達可能な範囲を上回って
います。
Linuxファイルシステムの概要
23
1.5 Linuxのカーネルにおけるストレー
ジの制限
表1.4「ストレージの制限」 (24 ページ)は、SUSE Linux Enterprise 11 Service
Pack 3に関連したストレージに関するカーネルの制限をまとめています。
表 1.4 ストレージの制限
ストレージの機能
制限
サポートされるLUNの最大数
ターゲットあたり16384 LUN。
単一LUNあたりのパスの最大数
それ自体は無制限。それぞれのパ
スが、通常のLUNとして扱われま
す。
実際の制限は、ターゲットあたり
のLUNの数と、HBAあたりのター
ゲットの数(ファイバチャネルHBA
の場合は16777215)により決まりま
す。
HBAの最大数
無制限. 実際の制限は、システムの
PCIスロットの量で決まります。
オペレーティングシステムあたり
の、デバイスマッパーマルチパス
付きパスの最大数(合計)
約1024。実際の数は、デバイス番
号文字列の長さによります。これ
はマルチパスツール内のコンパイ
ル時間によって変わり、この制限
が問題となる場合は、引き上げる
こともできます。
最大サイズ(ブロックデバイスごと)
X86では、最大16TiB。
x86_64、ia64、s390x、およびppc64
では、最大8 EiB。
24
ストレージ管理ガイド
1.6 YaST パーティショナによるデバイ
スの管理
YaST パーティションを使用すると、ファイルシステムとRAIDデバイスを作
成し、管理できます。『SUSE Linux Enterprise Server 11 SP3導入ガイド
[http://www.suse.com/documentation/sles11/book_sle
_deployment/data/cha_advdisk.html]』の「高度なディスクセットアッ
プ」 [https://www.suse.com/documentation/sles11/book_sle
_deployment/data/book_sle_deployment.html]を参照してください。
1.7 追加情報
ここまでに説明した各ファイルシステムのプロジェクトには、独自のWebペー
ジがあります。そこで詳しいドキュメントとFAQ、さらにメーリングリスト
を参照することができます。
• E2fsprogs: Ext2/3/4 File System Utilities [ http://e2fsprogs.sourceforge
.net/ ]
• Introducing Ext3 [ http://www.ibm.com/developerworks/linux/
library/l-fs7/ ]
• Using ReiserFS with Linux [ http://www.ibm.com/developerworks/
aix/library/au-unix-reiserFS/ ]
• XFS: A High-Performance Journaling Filesytem [ http://oss.sgi.com/
projects/xfs/ ]
• OCFS2 Project [ http://oss.oracle.com/projects/ocfs2/ ]
Linuxファイルシステムの概要
25
Linuxファイルシステムの総合的なマルチパートチュートリアルは、「Advanced
File System Implementor’s Guide [https://www.ibm.com/developerworks/
linux/library/l-fs/]」にあるIBM developerWorksで見つけることができ
ます。
ファイルシステム(Linuxファイルシステムに限らない)の詳しい比較について
は、「ファイルシステム」のWikipediaプロジェクトを参照してください。
[http://en.wikipedia.org/wiki/Comparison_of_file_systems
#Comparison]
26
ストレージ管理ガイド
SLES 11のストレージの新機能
2
SUSE Linux Enterprise Server 11では、ここで示すように機能と動作が変更され
ました。
• 2.1項 「SLES 11 SP3の新機能」
(27 ページ)
• 2.2項 「SLES 11 SP2の新機能」
(28 ページ)
• 2.3項 「SLES 11 SP1の新機能」
(29 ページ)
• 2.4項 「SLES 11の新機能」
(33 ページ)
2.1 SLES 11 SP3の新機能
SUSE Linux Enterprise Server 11 SP3リリースでは、バグの修正に加えて、この
項に示すように機能と動作が変更されました。
• インテルのソフトウェアRAIDが、RSTe+ (Rapid Storage Technology Enterprise)
プラットフォームでの向上したサポートを提供します。
• LEDMONユーティリティが、MDのソフトウェアRAID用のPCIe-SSDエンク
ロージャLEDをサポートします。詳細については、第12章 MDソフトウェア
RAID用のストレージエンクロージャLEDユーティリティ (235 ページ)を参照
してください。
SLES 11のストレージの新機能
27
• YaSTが、iSCSI LIOターゲットサーバソフトウェアをサポートします。詳細
については、第15章 IP ネットワークの大容量記憶域: iSCSI LIOターゲット
サーバ (289 ページ)を参照してください。
• マルチパスのI/O構成に関して、以下の拡張が行われました。
• user_friendly_namesパラメータが、デバイス構成セクションとマルチ
パス構成セクションでも構成できるようになりました。
• max_fdsパラメータのデフォルト設定が、max: に変更されました。
max_fds max
• YaSTパーティショナ内のAdd RAIDウィザードで、[Classify]オプション
によって、LinuxのソフトウェアRAID内の選択したデバイスが使用される順
番を指定して、アレイの半分が1つのディスクサブシステム上に置かれ、ア
レイのもう半分が別のディスクサブシステム上に確実に置かれるようにす
ることが可能となりました。たとえば、1つのディスクサブシステムに障害
が発生した場合、システムは2番目のディスクサブシステムから稼働し続け
ます。詳細については、10.3.3項 「YaSTパーティショナ付きコンプレック
スRAID 10の作成 」 (210 ページ)のステップ 4d (211 ページ)を参照してくだ
さい。
• rootファイルシステムでのサブボリュームに対するBtrfsクォータのサポー
トは、btrfs(8)コマンド内に追加されています。
2.2 SLES 11 SP2の新機能
SUSE Linux Enterprise Server 11 SP2リリースでは、バグの修正に加えて、この
項に示すように機能と動作が変更されました。
• Btrfsファイルシステム。1.2.1項 「Btrfs」 (3 ページ)を参照してください。
• Open Fibre Channel over Ethernet。第16章 Fibre Channel Storage over Ethernet
Networks: FCoE (327 ページ)を参照してください。
• LVMストレージオブジェクトのタグ付け。4.7項 「LVM2ストレージオブ
ジェクトのタグ付け」 (58 ページ)を参照してください。
28
ストレージ管理ガイド
• NFSv4 ACLのツール。第18章 NFSv4上でのアクセス制御リストの管
理 (351 ページ)を参照してください。
• mdadm resizeコマンドの--assume-cleanオプション。11.2.2項 「RAID
アレイのサイズの増加」 (222 ページ)を参照してください。
2.3 SLES 11 SP1の新機能
SUSE Linux Enterprise Server 11 SP1リリースでは、バグの修正に加えて、この
項に示すように機能と動作が変更されました。
• 2.3.1項 「iSCSIターゲット情報の保存」
(30 ページ)
• 2.3.2項 「iSCSIイニシエータの認証パラメータの変更」
• 2.3.3項 「 MPIOデバイスの永続的な予約を許可」
• 2.3.4項 「MDADM 3.0.2」
(30 ページ)
(30 ページ)
(30 ページ)
• 2.3.5項 「MDRAID外部メタデータ用ブートローダサポート」
(31 ページ)
• 2.3.6項 「MDRAID外部メタデータ用のYaSTのインストールとブートサポー
ト」 (31 ページ)
• 2.3.7項 「ルートファイルシステムを含むMDRAIDアレイのシャットダウン
機能の向上」 (31 ページ)
• 2.3.8項 「iSCSIデバイス上のMD」
• 2.3.9項 「MD-SGPIO」
(32 ページ)
(32 ページ)
• 2.3.10項 「LVM 2ミラーのサイズ変更 」
(33 ページ)
• 2.3.11項 「IBMサーバ上のアダプタ用ストレージドライバの更新」
(33 ページ)
SLES 11のストレージの新機能
29
2.3.1 iSCSIターゲット情報の保存
[YaST][ネットワークサービス][iSCSIターゲット]機能に、[保存]オ
プションが追加され、iSCSIターゲット情報をエクスポートできるようになり
ました。これにより、リソースの利用者に情報を提供することが容易になり
ました。
2.3.2 iSCSIイニシエータの認証パラメータの
変更
[YaST][ネットワークサービス][iSCSI イニシエータ]機能で、ターゲッ
トデバイスに接続するための認証パラメータを変更できます。以前は、認証
情報を変更するには、エントリを削除して再作成する必要がありました。
2.3.3 MPIOデバイスの永続的な予約を許可
SCSIイニシエータは共有ストレージデバイス用にSCSI予約を発行することで、
他のサーバのSCSIイニシエータがそのデバイスにアクセスできないようにし
ます。この予約は、SCSI例外処理プロセスの一環として発生するSCSIリセッ
ト後も有効です。
次は、SCSI予約が役立つ可能性があるシナリオの例です。
• 単純なSAN環境では、永続的なSCSI予約により、あるサーバで使用中のLUN
を別のサーバに追加してしまうといった管理者エラーを回避することがで
きます。このエラーが発生すると、データが破壊される可能性があります。
この種のエラーを防ぐには、通常SANゾーニングが使用されます。
• フェールオーバーが設定された高可用性環境では、永続的なSCSI予約によっ
て、他のサーバに予約されているSCSIデバイスに間違ったサーバが接続す
るのを防ぐことができます。
2.3.4 MDADM 3.0.2
バグ修正と改良を利用するには、MDADM (Multiple Devices Administration)ユー
ティリティ(mdadm)の最新バージョンを使用します。
30
ストレージ管理ガイド
2.3.5 MDRAID外部メタデータ用ブートロー
ダサポート
MDADMユーティリティバージョン3.0の外部メタデータ機能を使用して、Intel
Matrix Storage Technologyメタデータ形式で定義されたRAIDボリュームからオ
ペレーティングシステムをインストールおよび実行するためのサポートが追
加されました。これによって、DMRAID (Device Mapper RAID)インフラスト
ラクチャから、MDRAID (Multiple Devices RAID)インフラストラクチャに機能
が移動します。その結果、RAID 5実装がより成熟し、MDカーネルインフラ
ストラクチャの機能セットがより広範になります。このため、Intel、DDF (一
般的なRAIDディスクデータフォーマット)、およびネイティブMDのメタデー
タを含むすべてのメタデータフォーマットで共通のRAIDドライバを使用する
ことができます。
2.3.6 MDRAID外部メタデータ用のYaSTのイ
ンストールとブートサポート
YaSTインストーラツールでは、RAID 0、1、10、5、および6用MDRAID外部
メタデータのサポートが追加されました。インストーラは、RAIDアレイ、お
よびプラットフォームのRAID機能が有効かどうかを検出することができま
す。Intel Matrix Storage Manager用のプラットフォームBIOSでマルチパスの
RAIDが有効になっていると、「DMRAID」、「MDRAID」(推奨)、または「な
し」のオプションが提供されます。BIOSベースのRAIDアレイのアセンブルを
サポートするように、initrdも変更されました。
2.3.7 ルートファイルシステムを含むMDRAID
アレイのシャットダウン機能の向上
すべてのMDRAIDアレイが削除済みとしてマーキングされるまで待機するよ
うに、シャットダウンスクリプトが変更されました。すべてのMDRAIDボ
リュームが書き込み操作を終えるまで、オペレーティングシステムのシャッ
トダウンプロセスがダーティビットのクリアを待機するようになりました。
ルート(/)ファイルシステム(オペレーティングシステムとアプリケーション
ファイルを含むシステムボリューム)がソフトウェアRAIDアレイに常駐するか
SLES 11のストレージの新機能
31
どうか検討できるように、起動スクリプト、シャットダウンスクリプト、お
よびinitrdに変更が加えられました。アレイのメタデータハンドラをシャッ
トダウンプロセスの早期に開始して、シャットダウン中に最終的なルートファ
イルシステム環境を監視します。ハンドラは一般のkillallイベントからは
除外されます。このプロセスでは、書き込みを休止し、シャットダウンの終
了時にアレイのメタデータのダーティビット(アレイの再同期が必要かどう
かを示す)をクリアすることもできます。
2.3.8 iSCSIデバイス上のMD
YaSTインストーラで、iSCSIデバイス上でMDの設定が行えるようになりまし
た。
ブート時にRAIDアレイが必要な場合は、iSCSIイニシエータソフトウェアを
boot.mdの前にロードし、iSCSIターゲットをRAID用の自動設定に使用でき
るようにします。
新規インストール用に、Libstorageは/etc/mdadm.confファイルを作成し、
AUTO -allの行を追加します。更新中は、行は追加されません。/etc/mdadm
.confにこの行が含まれている場合は、
AUTO -all
/etc/mdadm.confに明記されていない限り、RAIDは自動アセンブルされま
せん。
2.3.9 MD-SGPIO
MD-SGPIOユーティリティは、sysfs(2)によってRAIDアレイを監視するス
タンドアロンアプリケーションです。イベントによって、ストレージスシス
テムの筐体、またはドライブベイの各スロットに関連しているLEDライトの
点滅を制御するLEDの変更要求がトリガされます。次の2種類のLEDシステム
をサポートしています。
• 2-LEDシステム(動作LED、状態LED)
• 3 LEDシステム(動作LED、配置LED、障害LED)
32
ストレージ管理ガイド
2.3.10 LVM 2ミラーのサイズ変更
論理ボリュームのサイズ変更に使用されるコマンドlvresize、lvextend、
およびlvreduceが、LVM 2ミラーのサイズを変更できるようになりました。
以前は、これらのコマンドは、論理ボリュームがミラーの場合にエラーを報
告していました。
2.3.11 IBMサーバ上のアダプタ用ストレージ
ドライバの更新
次のストレージドライバを利用可能な最新バージョンに更新することで、IBM
サーバのストレージアダプタをサポートします。
• Adaptec: aacraid、aic94xx
• Emulex: lpfc
• LSI: mptas、megaraid_sas
mptsasドライバがネイティブEEH (Enhanced Error Handler)の回復をサポー
トするようになりました。これは、電源プラットフォームをご利用のお客
様の入出力デバイスにとって主要な機能です。
• qLogic: qla2xxx、qla3xxx、qla4xxx
2.4 SLES 11の新機能
このセクションで示す機能および動作の変更は、SUSE Linux Enterprise Server
11リリース用です。
• 2.4.1項 「EVMS2の廃止予定」
(34 ページ)
• 2.4.2項 「デフォルトファイルシステムとしてのExt3」
• 2.4.3項 「Ext3用にデフォルトのinodeサイズを増大」
• 2.4.4項 「JFSファイルシステムの廃止予定」
(35 ページ)
(35 ページ)
(35 ページ)
SLES 11のストレージの新機能
33
• 2.4.5項 「OCFS2ファイルシステムを高可用性リリースに追加」 (35 ページ)
• 2.4.6項 「/dev/disk/by-nameの廃止予定」
(36 ページ)
• 2.4.7項 「/dev/disk/by-idディレクトリで継続的に有効なデバイス名」
(36 ページ)
• 2.4.8項 「マルチパスデバイスのフィルタ」
(36 ページ)
• 2.4.9項 「マルチパスデバイスのユーザフレンドリな名前」
(37 ページ)
• 2.4.10項 「マルチパスのための高度な入出力負荷バランスオプション」
(37 ページ)
• 2.4.11項 「マルチパスツールコールアウトの場所の変更」 (38 ページ)
• 2.4.12項 「mkinitrd -fオプションのmpathからmultipathへの変更」 (38 ページ)
• 2.4.13項 「MPIOパスグループ化ポリシーのデフォルト設定として、マルチ
バスからフェールオーバーへの変更」 (38 ページ)
2.4.1 EVMS2の廃止予定
EVMS2 (Enterprise Volume Management Systems)ストレージ管理ソリューショ
ンは、廃止されます。すべてのEVMS管理モジュールが、SUSE Linux Enterprise
Server 11パッケージから削除されました。システムをアップグレードすると、
ご利用になっているEVMS管理デバイスがLinux Volume Manager 2 (LVM2)に
よって自動認識され、管理されます。詳細については、「SUSE Linux Enterprise
のストレージとボリューム管理の進化 [http://www.novell.com/linux/
volumemanagement/strategy.html]」を参照してください。
SUSE Linux Enterprise Server 10上でのEVMS2の管理についての詳細について
は、『SUSE Linux Enterprise Server 10 SP3: ストレージ管理ガイド [http://
www.novell.com/documentation/sles10/stor_admin/data/
bookinfo.html]』を参照してください。
34
ストレージ管理ガイド
2.4.2 デフォルトファイルシステムとしての
Ext3
Ext3ファイルシステムは、インストール時およびファイルシステムの作成時
にYaSTツールで推奨されるデフォルトファイルシステムとして、ReiserFSに
置き換わっています。ただし、ReiserFSもまだサポートされています。詳細に
ついては、「SUSE Linux Enterprise 11技術仕様」Webページの「File System
Support [http://www.novell.com/linux/techspecs.html?tab=2]」
を参照してください。
2.4.3 Ext3用にデフォルトのinodeサイズを増
大
Ext3ファイルシステムのファイルに対する拡張属性およびACL用のスペース
を確保するため、Ext3に対するデフォルト のinodeサイズが、SLES 10での256
バイトから、SLES11では256バイトに増えました。詳細については、1.2.3.4項
「Ext3ファイルシステムのinodeサイズとinode数」 (11 ページ)を参照してくだ
さい。
2.4.4 JFSファイルシステムの廃止予定
JFSファイルシステムのサポートが終了しました。JFSユーティリティが配布
から削除されました。
2.4.5 OCFS2ファイルシステムを高可用性リ
リースに追加
SUSE Linux Enterprise High Availability Extensionの一部として、OCFS2ファイ
ルシステムが完全にサポートされるようになりました。
SLES 11のストレージの新機能
35
2.4.6 /dev/disk/by-nameの廃止予定
SUSE Linux Enterprise Server 11パッケージでは、/dev/disk/by-nameパスが
廃止予定です。
2.4.7 /dev/disk/by-idディレクトリで継続的
に有効なデバイス名
SUSE Linux Enterprise Server 11では、デフォルトのマルチパスセットアップは
udevを使用して、マルチパス処理の開始時に/dev/disk/by-idディレクト
リ内の既存のシンボリックリンクを上書きします。マルチパス処理開始前の
シンボリックリンクは、SCSIデバイスをそのscsi-xxx名でポイントします。
マルチパス処理実行中のシンボリックリンクは、SCSIデバイスをそのdm-uuid
-xxx名でポイントします。これにより、マルチパス処理が開始したかどうか
に関わりなく、/dev/disk/by-idパス内のシンボリックリンクは、継続的
に同じデバイスをポイントすることができます。自動的に正しいデバイスを
指すので、設定ファイル(lvm.confやmd.conf)を変更する必要はありませ
ん。
このような動作変更が他の機能に及ぼす影響の詳細については、次のセクショ
ンを参照してください。
• 2.4.8項 「マルチパスデバイスのフィルタ」
(36 ページ)
• 2.4.9項 「マルチパスデバイスのユーザフレンドリな名前」
(37 ページ)
2.4.8 マルチパスデバイスのフィルタ
/dev/disk/by-nameディレクトリの廃止によって(2.4.6項 「/dev/disk/by-name
の廃止予定」 (36 ページ))、設定ファイル内のマルチパスデバイスのフィルタ
設定方法に影響を及ぼします。/etc/lvm/lvm.confファイルでマルチパス
デバイスフィルタに/dev/disk/by-nameデバイス名パスを使用していた場
合は、/dev/disk/by-idパスを使用するようにファイルを変更する必要が
あります。by-idパスを使用するフィルタの設定では、次の点に注意してく
ださい。
36
ストレージ管理ガイド
• /dev/disk/by-id/scsi-*デバイス名は継続的に有効で、この目的のた
めに作成されました。
• フィルタに/dev/disk/by-id/dm-*という名前は使用しないでください。
これらはデバイスマッパーデバイスへのシンボリックリンクで、pvscanコ
マンドに対して重複したPVを報告することになります。名前がLVM-pvuuid
からdm-uuidに変更され、再度LVM-pvuuidに戻るように見えます。
フィルタの設定については、7.2.4項 「マルチパスデバイスでのLVM2の使
用」 (97 ページ)を参照してください。
2.4.9 マルチパスデバイスのユーザフレンド
リな名前
/dev/disk/by-idディレクトリ(2.4.7項 「/dev/disk/by-idディレクトリで継続
的に有効なデバイス名」 (36 ページ))でのマルチパスデバイス名の処理方法の
変更により、デバイスの2つの名前が異なっているため、ユーザフレンドリな
名前の設定に影響を及ぼします。マルチパス処理の設定後は、デバイスマッ
パー名だけをスキャンするように、設定ファイルを変更する必要があります。
たとえば、マルチパスデバイス名を使用してスキャンするように、lvm.conf
ファイルを変更する必要があります。そのためには、/dev/disk/by-id/dm
-uuid-.*-mpath-.*パスを、/dev/disk/by-idの代わりに指定します。
2.4.10 マルチパスのための高度な入出力負荷
バランスオプション
次の高度な入出力負荷バランスオプションは、ラウンドロビンに加えて、デ
バイスマッパーマルチパスにも使用きます。
• Least-pending(最小保留)
• Length-load-balancing(長さによる負荷分散)
• Service-time(サービス時間)
SLES 11のストレージの新機能
37
詳細については、7.11.2.1項 「優先度グループと属性の理解」 (138 ページ)の
「path_selector」 (146 ページ)を参照してください。
2.4.11 マルチパスツールコールアウトの場所
の変更
デバイスマッパーマルチパスツールのmpath_* prio_calloutsが、/lib/
libmultipath/lib*の共有ライブラリに移動されました。共有ライブラリ
を使用することで、デーモンの起動時、コールアウトがメモリにロードされ
ます。これによって、すべてのパスがダウンするというシステムデッドロッ
クのシナリオを回避することができます。このシナリオでは、プログラムを
ディスクからロードしなければなりませんが、この時点ではそのディスクが
利用できない場合があります。
2.4.12 mkinitrd -fオプションのmpathから
multipathへの変更
デバイスマッパーマルチパスサービスをinitrdに追加するオプションが、-f
mpathから-f multipathに変更になりました。
新しいinitrdを作成するためのコマンドは、次のようになりました。
mkinitrd -f multipath
2.4.13 MPIOパスグループ化ポリシーのデフォ
ルト設定として、マルチバスから
フェールオーバーへの変更
/etc/multipath.confファイルにあるpath_grouping_policyのデフォ
ルト設定がmultibusからfailoverに変更されました。
path_grouping_policyの設定方法については、7.11項 「パスフェールオーバー
のポリシーと優先度の設定」 (136 ページ)を参照してください。
38
ストレージ管理ガイド
ストレージソリューションのプ
ラニング
3
ニーズを最適に満たすには、ストレージの要件と、ストレージスペースの効
果的な管理および分割の方法を考慮する必要があります。この項の情報を使
用すると、SUSE® Linux Enterprise Server 11サーバでファイルシステムのスト
レージをどのように展開するか計画することができます。
• 3.1項 「デバイスのパーティショニング」
• 3.2項 「マルチパスのサポート」
(39 ページ)
(40 ページ)
• 3.3項 「ソフトウェアRAIDのサポート」 (40 ページ)
• 3.4項 「ファイルシステムのスナップショット」
(40 ページ)
• 3.5項 「バックアップとアーカイブのサポート」
(40 ページ)
3.1 デバイスのパーティショニング
YaST Expert Partitionerの使用については、『SUSE Linux Enterprise Server 11
Installation and Administration Guide』の「Using the YaST Partitioner」)を参照し
てください。
ストレージソリューションのプラニング
39
3.2 マルチパスのサポート
Linuxは、サーバ/ストレージデバイス間の耐障害性接続を実現するため、複数
のI/Oパスの使用をサポートしています。Linuxのマルチパスサポートは、デ
フォルトでは無効になっています。ストレージサブシステムのベンダから提
供されるマルチパスソリューションを使用する場合は、別途、Linuxマルチパ
スを設定する必要はありません。
3.3 ソフトウェアRAIDのサポート
Linuxは、ハードウェアRAIDデバイスおよびソフトウェアRAIDデバイスをサ
ポートします。ハードウェアRAIDデバイスを使用する場合は、ソフトウェア
RAIDデバイスは不要です。ただし、同じサーバでハードウェアRAIDデバイ
スとソフトウェアRAIDデバイスの両方を使用できます。
ソフトウェアRAIDデバイスが最大限のパフォーマンスを発揮するには、それ
ぞれのRAIDパーティションを別々の物理デバイスからとる必要があります。
ソフトウェアRAID 1デバイスの場合、ミラーリングされたパーティションは、
ディスクを共有できません。
3.4 ファイルシステムのスナップショッ
ト
Linuxは、ファイルシステムのスナップショットをサポートします。
3.5 バックアップとアーカイブのサポー
ト
• 3.5.1項 「オープンソースバックアップ」
(41 ページ)
• 3.5.2項 「商用バックアップとアンチウィルスのサポート」
40
ストレージ管理ガイド
(41 ページ)
3.5.1 オープンソースバックアップ
Linuxでデータのバックアップを行うためのオープンソースツールには、tar、
cpio、およびrsyncが含まれています。詳細については、これらのツールの
マニュアルページを参照してください。
• PAX: POSIXファイルシステムアーカイバ。標準的なアーカイブ(バックアッ
プ)ファイルの最も一般的なフォーマットであるcpioおよびtarの2つをサ
ポートしています。詳細については、のマニュアルページを参照してくだ
さい。
• Amanda: The Advanced Maryland Automatic Network Disk Archiver。
www.amanda.org [http://www.amanda.org/]を参照してください。
3.5.2 商用バックアップとアンチウィルスの
サポート
Novell OES (Open Enterprise Server) 2 for Linuxには、SLES (SUSE Linux Enterprise
Server) 10が組み込まれています。OES 2をサポートするウィルス対策/バック
アップのソフトウェアベンダは、SLES 10もサポートします。スケジュールさ
れたSLES 11のサポートについては、該当するベンダのWebサイトをご覧くだ
さい。
可能なバックアップおよびウィルス対策のソフトウェアベンダの現行リスト
については、『Novell Open Enterprise Server Partner Support: Backup and Antivirus
Support [http://www.novell.com/products/openenterpriseserver/
partners_communities.html]』を参照してください。このリストは、四
半期ごとに更新されます。
ストレージソリューションのプラニング
41
4
LVMの設定
このセクションでは、LVM(Logical Volume Manager)の原理と多くの状況で役
立つ基本機能を簡単に説明します。YaST LVMの設定は、YaST Expert Partitioner
からアクセスできます。このパーティショニングツールにより、既存のパー
ティションを編集、および削除できます。また、LVMで使用する新規パーティ
ションを作成することもできます。
警告
LVMを使用することでデータ損失などの危険性が増加する恐れがあります。
この危険性にはアプリケーションのクラッシュ、電源障害、誤ったコマン
ドなども含まれます。LVMまたはボリュームの再設定を実施する前にデー
タを保存してください。バックアップなしでは作業を実行しないでくださ
い。
• 4.1項 「論理ボリュームマネージャ(LVM)の理解」
• 4.2項 「LVMパーティションの作成」
(46 ページ)
• 4.3項 「ボリュームグループの作成」
(49 ページ)
• 4.4項 「物理ボリュームの設定」
(51 ページ)
• 4.5項 「物理ボリュームの設定」
(53 ページ)
(44 ページ)
• 4.6項 「非ルートLVMボリュームグループの自動アクティブ化」 (57 ページ)
• 4.7項 「LVM2ストレージオブジェクトのタグ付け」 (58 ページ)
LVMの設定
43
• 4.8項 「ボリュームグループのサイズ変更」
(67 ページ)
• 4.9項 「YaSTによる論理ボリュームのサイズ変更」
(69 ページ)
• 4.10項 「コマンドによる論理ボリュームのサイズ変更」
• 4.11項 「ボリュームグループの削除」
(70 ページ)
(71 ページ)
• 4.12項 「LVMパーティション(物理ボリューム)の削除」
(72 ページ)
4.1 論理ボリュームマネージャ(LVM)の
理解
LVMは、複数のファイルシステムにハードディスクスペースを柔軟に分散す
ることができます。LVMが開発された理由は、インストール中に初期パーティ
ショニングが終了した後でのみ、ハードディスクスペースのセグメンテーショ
ンを変更するニーズが発生する可能性があるためです。稼動中のシステムで
パーティションを変更することは困難なので、LVMは必要に応じて論理ボ
リューム(LV)を作成できるメモリスペースの仮想プール(ボリュームグループ
(VG))を提供します。オペレーティングシステムは物理パーティションの代わ
りにこれらのLVにアクセスします。ボリュームグループは2つ以上のディス
クにまたがることができます。したがって、複数のディスクまたはそれらの
一部で1つのVGを構成できます。この方法で、LVMは物理ディスクスペース
から一種の抽象化を行います。この抽象化により、物理パーティショニング
を使用する場合よりはるかに簡単で安全な方法でセグメンテーションを変更
できます。
図4.1「物理パーティショニング対LVM」 (45 ページ)では物理パーティショ
ニング(左)とLVM区分(右)を比較しています。左側は、1つのディスクが割り
当てられたマウントポイント(MP)をもつ3つの物理パーティション(PART)に
分かれています。これによりオペレーティングシステムはそれぞれのパーティ
ションにアクセスできます。右側では2つのディスクがそれぞれ3つの物理パー
ティションに分かれています。2つのLVMボリュームグループ(VG 1およびVG
2)が定義されています。VG 1には、DISK 1からのパーティションが2つ、DISK 2
からのパーティションが1つ含まれます。VG 2には、DISK 2からの残りの2パー
ティションが含まれます。
44
ストレージ管理ガイド
図 4.1 物理パーティショニング対LVM
LVMでは、ボリュームグループに組み込まれた物理ディスクをPV (物理ボ
リューム)と呼びます。図4.1「物理パーティショニング対LVM」 (45 ページ)
のボリュームグループ内には、4つの論理ボリューム(LV 1からLV 4)が定義さ
れています。これらのボリュームは、関連付けられたマウントポイントを介
してオペレーティングシステムに使用されます。別の論理ボリュームとの境
界とパーティションの境界を並べることはできません。この例ではLV 1およ
びLV 2の間に境界があります。
LVMの機能:
• 複数のハードディスクまたはパーティションを大きな論理ボリュームにま
とめることができます。
• 提供された設定が適切であれば、LV(/usrなど)は空きスペースがなくなっ
たときに拡張することができます。
• LVMを使用することで、実行中のシステムにハードディスクまたはLVを追
加できます。ただし、こうしたディスクやLVを追加するには、ホットスワッ
プ可能なハードウェアが必要になります。
• 複数の物理ボリューム上に論理ボリュームのデータストリームを割り当て
るストライピングモードを有効にすることもできます。これらの物理ボ
リュームが別のディスクに存在する場合、RAID 0と同様に読み込みおよび
書き込みのパフォーマンスを向上できます。
• スナップショット機能は稼動中のシステムで一貫性のある(特にサーバ)バッ
クアップを取得できます。
LVMの設定
45
これらの機能とともにLVMを使用することは、頻繁に使用されるホームPCや
小規模サーバではそれだけでも意義があります。データベース、音楽アーカ
イブ、またはユーザディレクトリのように増え続けるデータストックがある
場合は、LVMが特に役に立ちます。LVMを使用すると、物理ハードディスク
より大きなファイルシステムの作成が可能になります。LVMのもう1つの利点
は最大256個のLVを追加できることです。ただし、LVMでの作業は従来のパー
ティションでの作業とは異なることに留意してください。
カーネルバージョン2.6から開始して、LVMバージョン2を利用することがで
きます。これはLVMの前バージョンとの下方互換になり、これまでのボリュー
ムグループを管理できるようにします。新しいボリュームグループを作成す
る場合は、新しいフォーマットまたは下方互換バージョンのどちらを使用す
るか決定します。LVM 2にはいずれのカーネルパッチも必要ありません。こ
れは、カーネル2.6に統合されているデバイスマッパーを活用しています。こ
のカーネルはLVMバージョン2のみをサポートしています。そのため、このセ
クションでLVMと書かれている場合、それはLVMバージョン2を指していま
す。
YaSTパーティショナの使用によって、新規および既存のLVMストレージオブ
ジェクトを管理できます。LVMの設定に関する指示や詳細情報については、
公式のLVM HOWTO [http://tldp.org/HOWTO/LVM-HOWTO/]を参照して
ください。
重要
LVMの構成後にマルチパスのサポートを追加する場合は、/etc/lvm/lvm
.confファイルを修正し、/dev/disk/by-idディレクトリ内のマルチパ
スデバイス名のみをスキャンするようにして(7.2.4項 「マルチパスデバイス
でのLVM2の使用」 (97 ページ)に記載するとおり)、 サーバを再起動しま
す。
4.2 LVMパーティションの作成
ディスクごとに、0x8E Linux LVMとして、LVM用に使用したい空き領域を
パーティション分割します。1つのデバイスに1つ以上のLVMパーティション
を作成できます。デバイス上のパーティションがすべてLVMパーティション
である必要はありません。
46
ストレージ管理ガイド
ボリュームグループ機能を使用すると、1つ以上のLVMパーティションをボ
リュームグループと呼ばれるスペースの論理プールにまとめ、そのボリュー
ムグループ内のスペースから1つ以上の論理ボリュームを作成できます。
YaSTパーティショナでは、LVMパーティションを作成するときには、デスク
上の空き領域しか使用できません。単一のLVMパーティションにデスク全体
を使用したいが、ディスク上に他のパーティションがすでに存在する場合は、
まず、既存のパーティションすべてを削除してスペースを解放しないと、そ
のスペースをLVMパーティションで使用することができません。
警告
パーティションを削除すると、パーティション内のすべてのデータが破棄
されます。
1 YaSTを、rootユーザとして起動します。
2 YaST内で、[ディスクの分割]を開きます。
3 (オプション)1つ以上の既存パーティションを削除し、そのスペースを解
放して、作成するLVMパーティションに使用できるようにします。
詳細については、4.12項 「LVMパーティション(物理ボリューム)の削
除」 (72 ページ)を参照してください。
4 [パーティション]ページで、[追加]をクリックします。
5 [新しいパーティションの種類]の下で、[プライマリパーティショ
ン]または[拡張パーティション]を選択して、[次へ]をクリックし
ます。
6 [新しいパーティションのサイズ]を指定して、[次へ]をクリックし
ます。
LVMの設定
47
• 最大サイズ: ディスク上の使
用可能な空き領域をすべて使
用します。
• Custom Size (カスタムサイ
ズ): ディスク上の使用可能な
空きスペース量を上限とする
サイズを指定します。
• カスタム領域: ディスク上の
使用可能な空き領域の開始シ
リンダーと終了シリンダーを
指定します。
7 パーティションフォーマットの設定:
1. [フォーマットのオプショ
ン]の下で、[フォーマット
しない]を選択します。
2. [ファイルシステムのID]ド
ロップダウンリストから、
パーティションのIDとして
[0x8E Linux LVM]を選択し
ます。
3. [マウントのオプション]の
下で、[パーティションをマ
ウントしない]を選択しま
す。
8 [完了]をクリックします。
[次へ]と[完了]をクリックしてパーティショナを終了するまで、
パーティションは実際に作成されません。
48
ストレージ管理ガイド
9 追加したいLinux LVMパーティションごとに、ステップ 4 (47 ページ)か
らステップ 8 (48 ページ)まで繰り返します。
10 [次へ]をクリックし、新しいLinux LVMパーティションが一覧される
ことを確認してから、[完了]をクリックしてパーティショナを終了し
ます。
11 (オプション)4.3項 「ボリュームグループの作成」 (49 ページ)の説明に
従って、ボリュームグループの設定を続行します。
4.3 ボリュームグループの作成
LVMボリュームグループは、Linux LVMパーティションをスペースの論理プー
ルにします。グループ内の使用可能なスペースから論理ボリュームを作成で
きます。グループ内のLinux LVMパーティションは、同じディスクに存在す
ることも、さまざまなディスクに存在することも可能です。同じディスクま
たはさまざまなディスクからLVMパーティションを追加することにより、グ
ループのサイズを拡張できます。LVM用に予約されているパーティションを
すべて1つのボリュームグループに割り当ててください。すべてのパーティ
ションを割り当てないと、パーティションのスペースが未使用のまま残りま
す。
1 YaSTを、rootユーザとして起動します。
2 YaST内で、[ディスクの分割]を開きます。
3 左のパネルで、[ボリューム管理]をクリックします。
既存のボリュームグループのリストが右のパネルに表示されます。
4 [ボリューム管理]ページの左下で、[ボリュームグループの追加]をク
リックします。
LVMの設定
49
5 [ボリュームグループ名]を指定します。
インストール時にボリュームグループを作成している場合は、SUSE Linux
Enterprise Serverのシステムファイルを含むボリュームグループに対して
systemという名前が示唆されます。
6 [PEサイズ]を指定します。
[PEサイズ]は、ボリュームグループの物理ブロックのサイズを定義しま
す。ボリュームグループにある全ディスクスペースはこの物理ブロックサ
イズ内で使用されます。値の範囲は、2の累乗で1KBから16GBまでです。
通常、この値は4MBに設定されます。
LVM1では、LVごとに65534エクステントまでしかサポートしないので、
4MBの物理エクステントで最大LVサイズとして256GBが可能でした。LVM2
では、物理エクステントの数に制限がありません。エクステントが多くて
も、論理ボリュームに対するI/Oパフォーマンスに影響しませんが、LVM
ツールの動作が遅くなります。
50
ストレージ管理ガイド
重要
1つのボリュームグループに異なるサイズの物理エクステントを混在させ
ないでください。初期設定後はエクステントを変更しないでください。
7 [利用可能な物理ボリューム]リストで、このボリュームグループに含め
たいLinux LVMパーティションを選択し、[追加]をクリックして、それ
らのパーティションを[選択した物理ボリューム]リストに移動します。
8 [完了]をクリックします。
[ボリュームグループ]リストに新しいグループが表示されます。
9 [ボリューム管理]ページで、[次へ]をクリックし、新しいグループが
一覧されることを確認してから、[完了]をクリックします。
4.4 物理ボリュームの設定
Linux LVMパーティションは、ボリュームグループに割り当てられると、「物
理ボリューム」と呼ばれるようになります。
LVMの設定
51
図 4.2 ホームという名前のボリュームグループ内の物理ボリューム
既存のボリュームグループに物理ボリュームを追加するには:
1 YaSTを、rootユーザとして起動します。
2 YaST内で、[ディスクの分割]を開きます。
3 左のパネルで、[ボリューム管理]を選択し、グループのリストを展開し
ます。
4 [ボリューム管理]の下でボリュームグループを選択し、[概要]タブを
クリックします。
5 ページ下部にある[サイズ変更]をクリックします。
52
ストレージ管理ガイド
6 [利用可能な物理ボリューム]リストから物理ボリューム(LVMパーティ
ション)を選択し、[追加]をクリックしてそのボリュームを[選択した物
理ボリューム]リストに移動します。
7 [完了]をクリックします。
8 [次へ]をクリックし、変更が一覧されることを確認してから、[完了]
をクリックします。
4.5 物理ボリュームの設定
物理ボリュームでボリュームグループが満たされたら、[論理ボリューム]
ダイアログボックス(図4.3「論理ボリューム管理」 (54 ページ)参照)を使用し
て、オペレーティングシステムで使用される論理ボリュームを定義および管
理します。このダイアログには、そのボリュームグループのすべての論理ボ
リュームが一覧されます。[追加]、[編集]、および[削除]の各オプショ
LVMの設定
53
ンを使用して、論理ボリュームを管理できます。各ボリュームグループに少
なくとも1つの論理ボリュームを割り当ててください。ボリュームグループ内
の空き領域を使い果たすまで、必要に応じて新しい論理ボリュームを作成で
きます。
図 4.3 論理ボリューム管理
さらに、複数の物理ボリュームにまたがる論理ボリュームにデータストリー
ムを分配すること(ストライピング)も可能です。これらの物理ボリュームが別
のハードディスクに存在する場合、この性質により、読み込みおよび書込み
のパフォーマンスが向上します(RAID 0など)。ただし、nストライブでLVを
ストライピングする場合、LVが必要とするハードディスクスペースが物理ボ
リュームn個に等しく配分されている場合にのみ、ストライプが正しく作成さ
れます。たとえば、使用可能な物理ボリュームが2つだけの場合は、3つのス
トライプをもつ論理ボリュームは設定できません。
1 YaSTを、rootユーザとして起動します。
2 YaST内で、[ディスクの分割]を開きます。
54
ストレージ管理ガイド
3 左のパネルで、[ボリューム管理]を選択して展開し、ボリュームグ
ループのリストを表示します。
4 [ボリューム管理]の下でボリュームグループを選択し、[論理ボリュー
ム]タブをクリックします。
5 左下で、[追加]をクリックして[論理ボリュームの追加]ダイアログ
ボックスを開きます。
6 論理ボリュームの[名前]を指定し、[次へ]をクリックします。
7 ボリュームのサイズと、複数ストライプを使用するかどうかを指定しま
す。
1. 使用可能な最大サイズまでの
論理ボリュームサイズを指定
します。
現在のボリュームグループ内
の空き領域の量が[最大サイ
ズ]オプションの横に表示さ
れます。
2. ストライプの数を指定しま
す。
警告
YaSTには、現時点でストラ
イピングの観点からエント
リの正確性を確認する機会
はありません。何か間違い
があった場合、それが明ら
LVMの設定
55
かになるのはLVMがディス
クに実装された後です。
8 論理ボリュームのフォーマットオプションを指定します。
1. [フォーマットのオプショ
ン]の下で、[パーティショ
ンをフォーマットする]を選
択し、次に、[ファイルシス
テム]ドロップダウンリスト
からフォーマットのタイプ
(Ext3など)を選択します。
2. [マウントのオプション]の
下で、[パーティションをマ
ウントする]を選択してか
ら、マウントポイントを選択
します。
この論理ボリューム上に格納
されたファイルは、インス
トールしたシステム上の該当
するマウントポイントで検出
することができます。
3. [Fstabオプション]をクリッ
クして、このボリュームの特
別なマウントオプションを追
加します。
9 [完了]をクリックします。
10 [次へ]をクリックし、変更が一覧されることを確認してから、[完
了]をクリックします。
56
ストレージ管理ガイド
4.6 非ルートLVMボリュームグループ
の自動アクティブ化
非ルートLVMボリュームグループのアクティブ化の動作
は、/etc/sysconfig/lvmファイル内のパラメータ設定により制御されま
す。
デフォルトでは、非ルートLVMボリュームグループは、/etc/rc.d/boot
.lvmによって、/etc/sysconfig/lvmファイル内の
LVM_VGS_ACTIVATED_ON_BOOTパラメータの設定にしたがって、システム
の再起動時に自動的にアクティブになります。このパラメータにより、シス
テムの再起動時にすべてのボリュームグループをアクティブにすることも、
または指定した非ルートLVMボリュームグループのみをアクティブにするこ
ともできます。
システムの再起動時にすべての非ルートLVMボリュームグループをアクティ
ブにするには、/etc/sysconfig/lvmファイル内の
LVM_VGS_ACTIVATED_ON_BOOTパラメータが空である("")ことを確認しま
す。これがデフォルトの設定です。ほぼすべての標準的なLVMのインストー
ルでは、安全に空にしておくことができます。
LVM_VGS_ACTIVATED_ON_BOOT=""
指定した非ルートLVMボリュームグループのみをシステムの再起動時にアク
ティブにするには、ボリュームグループの名前を
LVM_VGS_ACTIVATED_ON_BOOTパラメータに対する値として、次のように
指定します。
LVM_VGS_ACTIVATED_ON_BOOT="vg1"
デフォルトでは、新たに検出されたLVMボリュームグループは、自動的には
アクティブになりません。LVM_ACTIVATED_ON_DISCOVEREDパラメータ
は、/etc/sysconfig/lvmファイル内で次のコマンドにより非アクティブ
となります。
LVM_ACTIVATED_ON_DISCOVERED="disable"
LVMの設定
57
LVM_ACTIVATED_ON_DISCOVEREDパラメータを次のように設定して、新た
に検出されたLVMボリュームグループをudevルールを介してアクティブにす
ることができます。
LVM_ACTIVATED_ON_DISCOVERED="enable"
4.7 LVM2ストレージオブジェクトのタ
グ付け
タグは、ストレージオブジェクトのメタデータに割り当てられる順序付けの
ないキーワードまたは用語です。タグを使用すると、順序付けのないタグの
リストをLVMストレージオブジェクトのメタデータに添付することによって、
それらのオブジェクトのコレクションを有用になるように分類できます。
• 4.7.1項 「LVM2タグの使用」
(58 ページ)
• 4.7.2項 「LVM2タグの作成要件」
(59 ページ)
• 4.7.3項 「コマンドラインでのタグ構文」
• 4.7.4項 「設定ファイル構文」
(60 ページ)
(60 ページ)
• 4.7.5項 「クラスタで簡単なアクティベーション制御にタグを使用する」
(63 ページ)
• 4.7.6項 「タグを使用して、クラスタ内の好みのホストでアクティブにする」
(63 ページ)
4.7.1 LVM2タグの使用
LVM2ストレージオブジェクトにタグを付けたら、それらのタグをコマンドで
使用して、次のタスクを達成できます。
• 特定のタグの有無に応じて、処理するLVMオブジェクトを選択します。
• 設定ファイル内でタグを使用することにより、サーバ上でアクティブにす
るボリュームグループと論理ボリュームを制御します。
58
ストレージ管理ガイド
• コマンド内でタグを指定することにより、グローバル設定ファイルの設定
を上書きします。
コマンドラインでLVMオブジェクトを参照する代わりに、タグを使用して、
次の項目を受け入れることができます。
• オブジェクトのリスト
• 単一のオブジェクト(タグが単一オブジェクトに展開する限り)
オブジェクト名をタグで置き換えることは、一部ではサポートされていませ
ん。引数の展開後、リスト内の重複引数は、重複引数を削除し、各引数の最
初のインスタンスを保留することによって解決されます。
引数のタイプが曖昧になる可能性がある場合は、タグの前にアットマーク(@)
文字を付けてください(たとえば、@mytag)。それ以外の接頭辞「@」の使用
はオプションです。
4.7.2 LVM2タグの作成要件
LVMでタグを使用する場合は、以下の要件を考慮してください。
• 4.7.2.1項 「サポートされている文字」
(59 ページ)
• 4.7.2.2項 「サポートされているストレージオブジェクト」
(59 ページ)
4.7.2.1 サポートされている文字
LVMタグのワードには、ASCII 大文字A~Z、小文字a~z、数字0~9、下線
(_)、プラス(+)、ハイフン(-)、およびピリオド(.)を含めることができます。
ワードをハイフンで始めることはできません。最大128文字まで入力できま
す。
4.7.2.2 サポートされているストレージオブジェクト
タグ付けできるのは、LVM2の物理ボリューム、ボリュームグループ、論理ボ
リューム、および論理ボリュームセグメントです。PVタグは、そのボリュー
ムグループのメタデータに保存されます。ボリュームグループを削除すると、
LVMの設定
59
孤立した物理ボリューム内のタグも削除されます。スナップショットにはタ
グを付けられませんが、元のオブジェクトはタグ付けできます。
LVM1オブジェクトは、そのディスクフォーマットがタグをサポートしていな
いので、タグ付けできません。
4.7.3 コマンドラインでのタグ構文
--addtag <タグ_情報>
LVM2ストレージオブジェクトにタグを追加(つまり、タグ付け)します。
例
vgchange --addtag @db1 vg1
--deltag <タグ_情報>
LVM2ストレージオブジェクトからタグを削除(つまり、タグ解除)します。
例
vgchange --deltag @db1 vg1
--tag <タグ_情報>
アクティブまたは非アクティブにするボリュームグループまたは論理ボ
リュームのリストを絞り込むために使用するタグを指定します。
例
次のコマンドを入力すると、指定のタグに一致するタグをもつボリューム
がアクティブになります。
lvchange -ay --tag @db1 vg1/vol2
4.7.4 設定ファイル構文
• 4.7.4.1項 「lvm.confファイルでホスト名タグを有効にする」 (61 ページ)
• 4.7.4.2項 「lvm.confファイルのホスト名タグを定義する」 (61 ページ)
60
ストレージ管理ガイド
• 4.7.4.3項 「アクティベーションを定義する」
(61 ページ)
• 4.7.4.4項 「複数のホスト名設定ファイルでアクティベーションを定義する」
(62 ページ)
4.7.4.1 lvm.confファイルでホスト名タグを有効にす
る
次のコードを /etc/lvm/lvm.confファイルに追加することにより、/etc/
lvm/lvm_<ホスト名>.confファイルでホストに個別に定義されているホス
トタグを有効にします。
tags {
# Enable hostname tags
hosttags = 1
}
ホストの/etc/lvm/lvm_<ホスト名>.confファイルにアクティベーション
コードを入力します。4.7.4.3項 「アクティベーションを定義する」 (61 ページ)
を参照してください。
4.7.4.2 lvm.confファイルのホスト名タグを定義する
tags {
tag1 { }
# Tag does not require a match to be set.
tag2 {
# If no exact match, tag is not set.
host_list = [ "hostname1", "hostname2" ]
}
}
4.7.4.3 アクティベーションを定義する
/etc/lvm/lvm.confファイルを変更すると、タグに基づいてLVM論理ボ
リュームをアクティブにできます。
テキストエディタで、次のコードをファイルに追加します。
LVMの設定
61
activation {
volume_list = [ "vg1/lvol0", "@database" ]
}
@databaseをご使用のタグで置き換えます。ホストに設定されているすべて
のタグにタグを一致させるには、"@*"を使用します。
アクティベーションコマンドは、ボリュームグループと論理ボリュームのメ
タデータで設定されているボリュームグループ名、ボリュームグループ名/論
理グループ名、または@タグと照合を行います。ボリュームグループまたは
論理グループは、メタデータタグが一致する場合のみアクティブになります。
一致しない場合のデフォルトは、アクティブにしないことです。
volume_listが存在せず、ホストにタグが定義されていると、ホストタグが
メタデータタグに一致する場合のみボリュームグループまたは論理グループ
がアクティブになります。
volume_listが存在せず、ホストにタグが定義されていないと、アクティ
ベーションが実行されます。
4.7.4.4 複数のホスト名設定ファイルでアクティベー
ションを定義する
lvm.confファイルでホストタグが有効になっている場合、 ホストの設定ファ
イル(/etc/lvm/lvm_<ホスト_タグ>.conf)でアクティベーションコードを
使用できます。たとえば、サーバの/etc/lvm/フォルダに、2つの設定ファ
イルがあるとします。
lvm.conf
lvm_<ホスト_タグ>.conf
スタートアップ時に、/etc/lvm/lvm.confファイルがロードされ、ファイ
ル内のすべてのタグ設定が処理されます。ホストタグが定義されていた場合
は、関連の/etc/lvm/lvm_<ホスト_タグ>.confファイルがロードされま
す。特定の設定ファイルエントリが検索される場合は、まず、ホストタグファ
イルが検索されてから、lvm.confファイルが検索され、最初の一致で検索
が停止します。lvm_<ホスト_タグ>.confファイル内では、タグの設定順序
と逆の順序が使用されます。これによって、最後に設定されたタグのファイ
62
ストレージ管理ガイド
ルが最初に検索されます。ホストタグファイルで新しいタグが設定されると、
追加の設定ファイルがロードされます。
4.7.5 クラスタで簡単なアクティベーション
制御にタグを使用する
簡単なアクティベーション制御は、/etc/lvm/lvm.confファイルで
hostname_tagsオプションを有効にすることでセットアップできます。こ
れがグローバル設定になるように、同じファイルをクラスタ内のすべてのコ
ンピュータで使用します。
1 テキストエディタで、次のコードを/etc/lvm/lvm.confファイルに追加
します。
tags {
hostname_tags = 1
}
2 ファイルをクラスタ内のすべてのホストに複製します。
3 クラスタ内の任意のコンピュータから、vg1/lvol2をアクティブにするコ
ンピュータのリストにdb1を追加します。
lvchange --addtag @db1 vg1/lvol2
4 db1サーバで、次のコードを入力してvg1/lvol2をアクティブにします。
lvchange -ay vg1/vol2
4.7.6 タグを使用して、クラスタ内の好みの
ホストでアクティブにする
この項の例では、次のようなアクティベーションを行う2つの方法を示しま
す。
LVMの設定
63
• ボリュームグループvg1をデータベースホストdb1およびdb2でのみアク
ティブにします。
• ボリュームグループvg2をファイルサーバホストfs1のみでアクティブにし
ます。
• ファイルサーバのバックアップホスト fsb1では、最初は何もアクティブに
せず、ファイルサーバのホスト fs1に置き換わる準備をします。
• 4.7.6.1項 「オプション1: 一元化された管理とホスト間で複製された設定」
(64 ページ)
• 4.7.6.2項 「オプション2: ローカライズされた管理と設定」
(65 ページ)
4.7.6.1 オプション1: 一元化された管理とホスト間で
複製された設定
次のソリューションでは、単一の設定ファイルを複数のホスト間で複製しま
す。
1 @databaseタグをボリュームグループvg1のメタデータに追加します。端
末コンソールで、次のコマンドを入力します。
vgchange --addtag @database vg1
2 @fileserverタグをボリュームグループvg2のメタデータに追加します。
端末コンソールで、次のコマンドを入力します。
vgchange --addtag @fileserver vg2
3 テキストエディタで、次のコードを使用して/etc/lvm/lvm.confを変更
することにより、@database、@fileserver、@fileserverbackupの
各タグを定義します。
tags {
database {
host_list = [ "db1", "db2" ]
}
fileserver {
64
ストレージ管理ガイド
host_list = [ "fs1" ]
}
fileserverbackup {
host_list = [ "fsb1" ]
}
}
activation {
# Activate only if host has a tag that matches a metadata tag
volume_list = [ "@*" ]
}
4 変更した/etc/lvm/lvm.confファイルを4つのホスト(db1、db2、fs1、
およびfsb1)に複製します。
5 ファイルサーバホストが故障した場合は、次のコマンドを任意のモードで
端末コンソールから入力することにより、fsb1上でvg2を起動できます。
vgchange --addtag @fileserverbackup vg2
vgchange -ay vg2
4.7.6.2 オプション2: ローカライズされた管理と設定
次のソリューションでは、各ホストがアクティブにするボリュームのクラス
に関する情報をローカルに保持します。
1 @databaseタグをボリュームグループvg1のメタデータに追加します。端
末コンソールで、次のコマンドを入力します。
vgchange --addtag @database vg1
2 @fileserverタグをボリュームグループvg2のメタデータに追加します。
端末コンソールで、次のコマンドを入力します。
vgchange --addtag @fileserver vg2
3 /etc/lvm/lvm.confファイルでホストタグを有効にします。
3a テキストエディタで、次のコードを使用して/etc/lvm/lvm.conf
ファイルを変更することにより、ホストタグ設定ファイルを有効に
します。
LVMの設定
65
tags {
hosttags = 1
}
3b 変更した/etc/lvm/lvm.confファイルを4つのホスト(db1、db2、
fs1、およびfsb1)に複製します。
4 ホストdb1で、データベースホストdb1のアクティベーション設定ファイル
を作成します。テキストエディタで、a /etc/lvm/lvm_db1.confファ
イルを作成し、次のコードを追加します。
activation {
volume_list = [ "@database" ]
}
5 ホストdb2で、データベースホストdb2のアクティベーション設定ファイル
を作成します。テキストエディタで、a /etc/lvm/lvm_db2.confファ
イルを作成し、次のコードを追加します。
activation {
volume_list = [ "@database" ]
}
6 ホストfs1で、ファイルサーバホストfs1のアクティベーション設定ファイ
ルを作成します。テキストエディタで、a /etc/lvm/lvm_fs1.confファ
イルを作成し、次のコードを追加します。
activation {
volume_list = [ "@fileserver" ]
}
7 ファイルサーバホストfs1が故障した場合は、スペアのファイルサーバホ
ストfsb1をファイルサーバとして起動します。
7a ホストfsb1で、ホストfsb1のアクティベーション設定ファイルを
作成します。テキストエディタで、a /etc/lvm/lvm_fsb1.conf
ファイルを作成し、次のコードを追加します。
66
ストレージ管理ガイド
activation {
volume_list = [ "@fileserver" ]
}
7b 端末コンソールで、次のコマンドの1つを入力します。
vgchange -ay vg2
vgchange -ay @fileserver
4.8 ボリュームグループのサイズ変更
Linux LVMのパーティションをボリュームグループに追加/削除することによ
り、ボリュームグループのサイズを拡大/縮小できます。
警告
論理ボリュームにより使用中のパーティションを削除すると、データが失
われることがあります。
1 YaSTを、rootユーザとして起動します。
2 YaST内で、[ディスクの分割]を開きます。
3 左のパネルで、[ボリューム管理]を選択して展開し、ボリュームグルー
プのリストを表示します。
4 [ボリューム管理]の下でボリュームグループを選択し、[概要]タブを
クリックします。
5 ページ下部にある[サイズ変更]をクリックします。
LVMの設定
67
6 次のいずれかの操作を行います。
• 追加: 1つまたは複数の物理ボリューム(LVMパーティション)を[使用可
能な物理ボリューム]リストから[選択した物理ボリューム]リストに
移動することにより、ボリュームグループのサイズを拡張します。
• 削除: 1つまたは複数の物理ボリューム(LVMパーティション)を[選択し
た物理ボリューム]リストから[利用可能な物理ボリューム]リストに
移動することにより、ボリュームグループのサイズを縮小します。
7 [完了]をクリックします。
8 [次へ]をクリックし、変更が一覧されることを確認してから、[完了]
をクリックします。
68
ストレージ管理ガイド
4.9 YaSTによる論理ボリュームのサイ
ズ変更
1 YaSTを、rootユーザとして起動します。
2 YaST内で、[ディスクの分割]を開きます。
3 左のパネルで、[ボリューム管理]を選択して展開し、ボリュームグルー
プのリストを表示します。
4 [ボリューム管理]の下でボリュームグループを選択し、[論理ボリュー
ム]タブをクリックします。
5 ページ下部で、[サイズ変更]をクリックして[論理ボリュームのサイズ
変更]ダイアログボックスを開きます。
6 スライダを使用して、論理ボリュームのサイズを拡大/縮小します。
警告
データを含む論理ボリュームのサイズを縮小すると、データが破損する
ことがあります。
LVMの設定
69
7 [OK]をクリックします。
8 [次へ]をクリックし、変更が一覧されることを確認してから、[完了]
をクリックします。
4.10 コマンドによる論理ボリュームの
サイズ変更
論理ボリュームのサイズ変更には、コマンドlvresize、lvextend、および
lvreduceが使用されます。構文とオプションについては、これらの各コマ
ンドのマニュアルページを参照してください。
YaSTパーティショナでも、論理ボリュームのサイズを増やすことができま
す。YaSTではparted(8)を使用してパーティションサイズを増やします。
LVを拡大するには、VG上に十分な未使用スペースがなければなりません。
LVは使用中に拡大または縮小できますが、LV上のファイルシステムについて
はこれが不可能な場合があります。LVを拡大、縮小しても、そのボリューム
内のファイルシステムのサイズは自動的に変更されません。後でファイルシ
ステムを拡大するには、別のコマンドを使用する必要があります。ファイル
システムのサイズ変更の詳細については、第5章 ファイルシステムのサイズ変
更 (73 ページ)を参照してください。
必ず正しいシーケンスを使用するようにしてください。
• LVを拡大する場合は、ファイルシステムを拡大する前にLVを拡大する必要
があります。
• LVを縮小する場合は、LVを縮小する前にファイルシステムを縮小する必要
があります。
論理ボリュームのサイズを拡張するには:
1 端末コンソールを開き、rootユーザとしてログインします。
2 仮想マシン(Xen VMなど)用に提供されているファイルシステムが論理ボ
リュームに含まれている場合は、VMをシャットダウンします。
70
ストレージ管理ガイド
3 論理ボリューム上のファイルシステムのマウントを解除します。
4 端末コンソールのプロンプトに対して、次のコマンドを入力し、論理ボ
リュームのサイズを拡大します。
lvextend -L +size /dev/vgname/lvname
sizeの場合は、10GBのように、論理ボリュームに追加したい容量を指定
してください。/dev/vgname/lvnameを、/dev/vg1/v1などの論理ボ
リュームへのLinuxパスに入れ替えます。次に例を示します。
lvextend -L +10GB /dev/vg1/v1
たとえば、LVをLV上の(マウント済みでアクティブな)ReiserFSで10GB拡張す
るには:
lvextend −L +10G /dev/vgname/lvname
resize_reiserfs −s +10GB −f /dev/vg−name/lv−name
たとえば、LVをLV上のReiserFSで5GB縮小するには:
umount /mountpoint−of−LV
resize_reiserfs −s −5GB /dev/vgname/lvname
lvreduce /dev/vgname/lvname
mount /dev/vgname/lvname /mountpoint−of−LV
4.11 ボリュームグループの削除
警告
ボリュームグループを削除すると、グループの各メンバーパーティション
に含まれているデータがすべて破棄されます。
1 YaSTを、rootユーザとして起動します。
2 YaST内で、[ディスクの分割]を開きます。
3 左のパネルで、[ボリューム管理]を選択し、グループのリストを展開し
ます。
LVMの設定
71
4 [ボリューム管理]の下でボリュームグループを選択し、[概要]タブを
クリックします。
5 ページ下部で、[削除]をクリックし、次に、[はい]をクリックして削
除を確認します。
6 [次へ]をクリックし、削除したボリュームグループが一覧されることを
確認してから(削除は赤いフォントで示されます)、[完了]をクリックし
ます。
4.12 LVMパーティション(物理ボリュー
ム)の削除
警告
パーティションを削除すると、パーティション内のすべてのデータが破棄
されます。
1 YaSTを、rootユーザとして起動します。
2 YaST内で、[ディスクの分割]を開きます。
3 If the Linux LVMパーティションがボリュームグループのメンバーとして使
用中の場合は、ボリュームグループからパーティションを削除するか、ま
たはボリュームグループを削除します。
4 YaSTパーティショナで、[ハードディスク]の下でデバイス(sdcなど)を
選択す。
5 [パーティション]ページで、削除したいパーティションを選択して[削
除]をクリックし、[はい]で削除を確認します。
6 [次へ]をクリックし、削除したパーティションが一覧されることを確認
してから(削除は赤いフォントで示されます)、[完了]をクリックします。
72
ストレージ管理ガイド
ファイルシステムのサイズ変更
5
データのボリュームを増やす必要がある場合は、そのファイルシステムに割
り当てられた容量を増やす必要があるかもしれません。
• 5.1項 「サイズ変更のガイドライン」
(73 ページ)
• 5.2項 「Ext2、Ext3、またはExt4ファイルシステムのサイズの増加」
(75 ページ)
• 5.3項 「Reiserファイルシステムのサイズの増加」 (77 ページ)
• 5.4項 「Ext2またはExt3ファイルシステムのサイズの削減」 (78 ページ)
• 5.5項 「Reiserファイルシステムのサイズの削減」 (79 ページ)
5.1 サイズ変更のガイドライン
パーティションまたはファイルシステムのサイズ変更には、データを失う可
能性をはらむリスクが伴います。
警告
データの喪失を避けるには、データを必ずバックアップしてから、サイズ
変更タスクを開始します。
ファイルシステムのサイズを変更する場合は、次のガイドラインに従ってく
ださい。
ファイルシステムのサイズ変更
73
• 5.1.1項 「サイズ変更をサポートしているファイルシステム」
• 5.1.2項 「ファイルシステムのサイズの増加」
(75 ページ)
• 5.1.3項 「ファイルシステムのサイズの削減」
(75 ページ)
(74 ページ)
5.1.1 サイズ変更をサポートしているファイ
ルシステム
ボリュームに使用可能な容量を増やせるようにするには、ファイルシステム
がサイズ変更をサポートしている必要があります。SUSE® Linux Enterprise
Server 2では、ファイルシステムExt2、Ext3、Ext4、およびReiserFSに対して、
ファイルシステムのサイズ変更ユーティリティを使用できます。このユーティ
リティは、次のようにサイズの増減をサポートします。
表 5.1 ファイルシステムサイズ変更のサポート
74
ファイルシス
テム
ユーティリ
ティ
サイズを増加
(拡大)
サイズの削減
(縮小)
Ext2
resize2fs
オフラインの
み
オフラインの
み
Ext3
resize2fs
オンラインま
たはオフライ
ン
オフラインの
み
Ext4
resize2fs
オフラインの
み
オフラインの
み
ReiserFS
resize_reiserfs
オンラインま
たはオフライ
ン
オフラインの
み
ストレージ管理ガイド
5.1.2 ファイルシステムのサイズの増加
デバイス上で使用可能な最大容量までファイルシステムを拡大することも、
正確なサイズを指定することもできます。ファイルシステムのサイズを拡大
する前に、必ずデバイス、または論理ボリュームのサイズを拡大しておいて
ください。
ファイルシステムに正確なサイズを指定する場合は、その新しいサイズが次
の条件を満たすかどうかを必ず確認してください。
• 新しいサイズは、既存データのサイズより大きくなければなりません。さ
もないと、データが失われます。
• ファイルシステムのサイズは使用可能な容量より大きくできないので、新
しいサイズは、現在のデバイスサイズ以下でなければなりません。
5.1.3 ファイルシステムのサイズの削減
デバイス上のファイルシステムのサイズを削減する際には、新しいサイズが
次の条件を満たすかどうかを必ず確認してください。
• 新しいサイズは、既存データのサイズより大きくなければなりません。さ
もないと、データが失われます。
• ファイルシステムのサイズは使用可能な容量より大きくできないので、新
しいサイズは、現在のデバイスサイズ以下でなければなりません。
ファイルシステムが保存されている論理ボリュームのサイズを削減する場合
は、デバイス、または論理ボリュームのサイズを削減しようとする前に、必
ずファイルシステムのサイズを削減しておきます。
5.2 Ext2、Ext3、またはExt4ファイル
システムのサイズの増加
Ext2、Ext3、およびExt4ファイルシステムのサイズは、ファイルシステムをマ
ウントする際にresize2fsコマンドを使用して増加できます。Ext3ファイル
ファイルシステムのサイズ変更
75
システムのサイズは、ファイルシステムをアンマウントする際にresizefs
コマンドを使用しても増加できます。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 ファイルシステムがExt2またはExt4である場合は、そのファイルシステム
をアンマウントする必要があります。Ext3ファイルシステムは、マウント
またはアンマウントできます。
3 次の方法の1つで、ファイルシステムのサイズを増加します。
• ファイルシステムのサイズを/dev/sda1と呼ばれるデバイスの、利用可
能な最大サイズまで拡大するには、次のように入力します。
resize2fs /dev/sda1
sizeパラメータを指定しない場合、サイズはパーティションのサイズにデ
フォルト設定されます。
• ファイルシステムを特定のサイズに拡張するには、次のコマンドを入力
します。
resize2fs /dev/sda1 size
sizeパラメータは、要求されたファイルシステムの新サイズを指定しま
す。単位を指定しない場合のsizeパラメータの単位は、ファイルシステム
のブロックサイズです。オプションとして、sizeパラメータの後ろに、次
の単位指定子の1つを付けることができます。sは512バイトのセクタ、K
はキロバイト(1キロバイトは1024バイト)、Mはメガバイト、Gはギガバ
イトを表します。
サイズ変更が完了するまで待って、続行します。
4 ファイルシステムがマウントされていない場合は、この時点で、ファイル
システムをマウントします。
たとえば、Ext2ファイルシステムを、/dev/sda1という名前のデバイス
に、マウントポイント/homeでマウントするには、次のように入力します。
mount -t ext2 /dev/sda1 /home
76
ストレージ管理ガイド
5 次のように入力して、マウントされたファイルシステムに対するサイズ変
更の効果をチェックします。
df -h
ディスクフリー(df)コマンドは、ディスクの合計サイズ、使用されたブロッ
ク数、およびファイルシステム上の使用可能なブロック数を表示します。
-hオプションは、読みやすい形式でサイズを出力します(1K、234M、2Gな
ど)。
5.3 Reiserファイルシステムのサイズの
増加
ReiserFSファイルシステムのサイズは、マウント中またはアンマウント中のい
ずれでも拡大することができます。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 /dev/sda2と呼ばれるデバイスのファイルシステムのサイズを拡大するに
は、次のいずれかの方法を使用します。
• ファイルシステムのサイズをデバイスの使用可能な最大サイズまで拡張
するには、次のように入力します。
resize_reiserfs /dev/sda2
サイズを指定しないと、ボリュームはパーティションのフルサイズまで
拡張されます。
• ファイルシステムを特定のサイズに拡張するには、次のコマンドを入力
します。
resize_reiserfs -s size /dev/sda2
sizeを目的のサイズ(バイト単位)で置き換えます。50000K(キロバイト)、
250M(メガバイト)、2G (ギガバイト)など、値の単位を指定することもで
きます。代わりに、プラス(+)記号を値の前に付けることにより、現在の
ファイルシステムのサイズ変更
77
サイズに対する増加を指定することもできます。たとえば、次のコマン
ドは、/dev/sda2上のファイルシステムのサイズを500MB分増加しま
す。
resize_reiserfs -s +500M /dev/sda2
サイズ変更が完了するまで待って、続行します。
3 ファイルシステムがマウントされていない場合は、この時点で、ファイル
システムをマウントします。
たとえば、ReiserFSファイルシステムを、デバイス/dev/sda2に、マウン
トポイント/homeでマウントするには、次のように入力します。
mount -t reiserfs /dev/sda2 /home
4 次のように入力して、マウントされたファイルシステムに対するサイズ変
更の効果をチェックします。
df -h
ディスクフリー(df)コマンドは、ディスクの合計サイズ、使用されたブロッ
ク数、およびファイルシステム上の使用可能なブロック数を表示します。
-hオプションは、読みやすい形式でサイズを出力します(1K、234M、2Gな
ど)。
5.4 Ext2またはExt3ファイルシステム
のサイズの削減
ボリュームがマウントされていないときは、Ext2、Ext3、またはExt4ファイル
システムのサイズを縮小できます。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 ファイルシステムをマウント解除します。
78
ストレージ管理ガイド
3 /dev/sda1などのデバイスのファイルシステムのサイズを削減するには、
次のコマンドを入力します。
resize2fs /dev/sda1 <size>
sizeを、目的のサイズを表す整数値(キロバイト単位)で置き換えます(1キ
ロバイトは1024バイト)。
サイズ変更が完了するまで待って、続行します。
4 ファイルシステムをマウントします。たとえば、Ext2ファイルシステム
を、/dev/sda1という名前のデバイスに、マウントポイント/homeでマウ
ントするには、次のように入力します。
mount -t ext2 /dev/md0 /home
5 次のように入力して、マウントされたファイルシステムに対するサイズ変
更の効果をチェックします。
df -h
ディスクフリー(df)コマンドは、ディスクの合計サイズ、使用されたブロッ
ク数、およびファイルシステム上の使用可能なブロック数を表示します。
-hオプションは、読みやすい形式でサイズを出力します(1K、234M、2Gな
ど)。
5.5 Reiserファイルシステムのサイズの
削減
Reiserファイルシステムは、ボリュームがアンマウントされている場合のみ、
サイズを削減することができます。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 次のコマンドを入力して、デバイスをアンマウントします。
ファイルシステムのサイズ変更
79
umount /mnt/point
サイズを削減するパーティションにシステムファイル(ルート/ボリューム
など)が含まれていると、ブート可能なCDまたはフロッピーからブートす
る場合のみ、アンマウントが可能です。
3 /dev/sda1という名前のデバイスのファイルシステムのサイズを削減する
には、次のコマンドを入力します。
resize_reiserfs -s size /dev/sda2
sizeを目的のサイズ(バイト単位)で置き換えます。50000K(キロバイト)、
250M(メガバイト)、2G (ギガバイト)など、値の単位を指定することもでき
ます。代わりに、マイナス(-)記号を値の前に付けて、現在のサイズに対す
る削減分を指定することもできます。たとえば、次のコマンドは、/dev/
md0上のファイルシステムのサイズを 500 MB分減少させます。
resize_reiserfs -s -500M /dev/sda2
サイズ変更が完了するまで待って、続行します。
4 次のコマンドで、ファイルシステムをマウントします。
mount -t reiserfs /dev/sda2 /mnt/point
5 次のように入力して、マウントされたファイルシステムに対するサイズ変
更の効果をチェックします。
df -h
ディスクフリー(df)コマンドは、ディスクの合計サイズ、使用されたブロッ
ク数、およびファイルシステム上の使用可能なブロック数を表示します。
-hオプションは、読みやすい形式でサイズを出力します(1K、234M、2Gな
ど)。
80
ストレージ管理ガイド
UUIDによるデバイスのマウン
ト
6
このセクションでは、オプションとして、デバイス名の代わりにUUIDを使用
して、ブートローダファイルと/etc/fstabファイルでファイルシステムの
デバイスを識別する方法について説明します。
• 6.1項 「udevによるデバイスの命名」
• 6.2項 「UUIDの理解」
(81 ページ)
(82 ページ)
• 6.3項 「ブートローダと/etc/fstabファイルでのUUIDの使用(x86の場合)」
(83 ページ)
• 6.4項 「ブートローダと/etc/fstabファイルでのUUIDの使用(IA64の場合)」
(86 ページ)
• 6.5項 「追加情報」
(87 ページ)
6.1 udevによるデバイスの命名
Linux 2.6以降のカーネルでは、udevによって、永続的なデバイス名を使用し
た/devディレクトリのユーザスペースソリューションが提供されます。シス
テムに対してデバイスを追加または削除する場合は、ホットプラグシステム
の一部としてudevが実行されます。
ルールのリストが特定デバイス属性との比較に使用されます。udevルールの
インフラストラクチャ(/etc/udev/rules.dディレクトリで定義)は、すべ
UUIDによるデバイスのマウント
81
てのディスクデバイスに、それらの認識順序や当該デバイスに使用される接
続に関わらず、安定した名前を提供します。udevツールは、カーネルが作成
するすべての該当ブロックデバイスを調べ、一定のバス、ドライブタイプ、
またはファイルシステムに基づいて、ネーミングルールを適用します。udev
用の独自ルールを定義する方法については、「Writing udev Rules [http://
reactivated.net/writing_udev_rules.html]」を参照してください。
動的なカーネル提供のデバイスノード名に加えて、udevは、/dev/diskディ
レクトリ内のデバイスをポイントする永続的なシンボリックリンクのクラス
を保持します。このディレクトリは、さらに、by-id、by-label、by
-path、およびby-uuidの各サブディレクトリに分類されます。
注記
udev以外のプログラム(LVMやmdなど)も、UUIDを生成することがあります
が、それらのUUIDは/dev/diskにリストされません。
6.2 UUIDの理解
UUID (Universally Unique Identifier)は、ファイルシステムの128ビットの番号で
あり、ローカルシステムと他のシステム全体に渡る固有な識別子です。UUID
は、システムハードウェア情報とタイムスタンプをそのシードの一部として、
ランダムに生成されます。UUIDは、通常、デバイスに固有なタグを付けるた
めに使用されます。
• 6.2.1項 「UUIDによるファイルシステムデバイスのアセンブルまたは有効
化」 (82 ページ)
• 6.2.2項 「ファイルシステムデバイスのUUIDの見つけ方」
(83 ページ)
6.2.1 UUIDによるファイルシステムデバイス
のアセンブルまたは有効化
UUIDは、常に、パーティションに対して固有であり、表示の順序またはマウ
ントの場所に依存しません。特定のSANデバイスがサーバに接続されると、
システムパーティションが名前変更され、最後のデバイスに移動されます。
82
ストレージ管理ガイド
たとえば、ルート(/)がインストール時に/dev/sda1に割り当てられている場
合は、SANの接続後に/dev/sdg1に割り当てられることがあります。この問
題を回避する1つの方法は、ブートデバイスのブートローダファイルと/etc/
fstabファイルでUUIDを使用することです。
製造業者がドライブに割り当てたデバイスIDは、デバイスをどこにマウント
しても変更されないので、常に、ブート時に検出できます。UUIDは、ファイ
ルシステムのプロパティであり、ドライブを再フォーマットすれば変更でき
ます。ブートローダファイルでは、通常、デバイスの場所(/dev/sda1など)
を指定して、デバイスをシステムブート時にマウントします。ブートローダ
は、デバイスのUUIDと管理者指定のボリュームラベルによってもデバイスを
マウントできます。ただし、ラベルとファイルの場所を使用する場合は、パー
ティションのマウント時にラベル名を変更できません。
UUIDは、ソフトウェアRAIDデバイスのアセンブルと起動の基準として使用
できます。RAIDが作成されると、mdドライバは、デバイスのUUIDを生成し、
その値をmdスーパーブロックに保存します。
6.2.2 ファイルシステムデバイスのUUIDの見
つけ方
どのブロックデバイスのUUIDも、/dev/disk/by-uuidディレクトリ内で見
つけることができます。たとえば、次のようなUUIDがあります。
e014e482-1c2d-4d09-84ec-61b3aefde77a
6.3 ブートローダと/etc/fstabファイル
でのUUIDの使用(x86の場合)
インストール後、オプションとして、次の手順に従って、x86システムのブー
トローダファイルと/etc/fstabファイルでシステムデバイスのUUIDを設定
できます。
プロシージャを開始する前に、/boot/grub/menu.1stファイルと/etc/
fstabファイルのコピーをとってください。
UUIDによるデバイスのマウント
83
1 SANデバイスの接続なしで、SUSE Linux Enterprise Server for x86をインス
トールします。
2 インストール後、システムをブートします。
3 rootユーザまたはそれと同等の権限で、端末コンソールを開きます。
4 /dev/disk/by-uuidディレクトリにナビゲートして、/boot、/root、
およびswapをインストールしたデバイスのUUIDを見つけます。
4a 端末コンソールのプロンプトで、次のように入力します。
cd /dev/disk/by-uuid
4b 次を入力して、すべてのパーティションをリストします。
ll
4c 次のようなUUIDを見つけます。
e014e482-1c2d-4d09-84ec-61b3aefde77a —> /dev/sda1
5 YaSTでブートローダオプションを使用するか、またはテキストエディタを
使用して、/boot/grub/menu.1stファイルを編集します。
たとえば、次のように変更します。
kernel /boot/vmlinuz root=/dev/sda1
変更先:
kernel /boot/vmlinuz
root=/dev/disk/by-uuid/e014e482-1c2d-4d09-84ec-61b3aefde77a
84
ストレージ管理ガイド
重要
間違えた場合は、SAN接続なしでサーバをブートし、参考として/boot/
grub/menu.1stファイルのバックアップコピーを使用してエラーを修
正できます。
YaSTでブートローダオプションを使用する場合は、値を変更すると、ブー
トローダファイルに重複行が追加されるという欠陥があります。エディタ
を使用して、次の重複行を削除します。
color white/blue black/light-gray
default 0
timeout 8
gfxmenu (sd0,1)/boot/message
YaSTで、ルート(/)デバイスをマウントする方法(UUIDを使用する、ラベル
を使用するなど)を変更する際には、ブートローダの設定を再保存して、変
更内容をブートローダに対して有効にする必要があります。
6 rootユーザまたはそれと同等の権限で、次のいずれかを実行してUUID
を/etc/fstabファイルに入力します。
• rootユーザとしてYaSTを起動し、[システム] > [パーティショナ]
と選択し、目的のデバイスを選択して、[Fstabオプション]変更しま
す。
• /etc/fstabファイルを編集して、システムデバイスのエントリを場所
からUUIDに変更します。
たとえば、ルート(/)ボリュームのデバイスパスが/dev/sda1で、その
UUIDがe014e482-1c2d-4d09-84ec-61b3aefde77aの場合、次のよ
うに行エントリを変更します。
/dev/sda1
/
reiserfs
acl,user_xattr
1 1
変更先:
UUIDによるデバイスのマウント
85
UUID=e014e482-1c2d-4d09-84ec-61b3aefde77a
1 1
/
reiserfs
acl,user_xattr
重要
ファイル内に、不要な文字やスペースが残っていないようにしてくだ
さい。
6.4 ブートローダと/etc/fstabファイル
でのUUIDの使用(IA64の場合)
インストール後、次のプロシージャに従って、IA64システムのブートローダ
ファイルと/etc/fstabファイルにシステムデバイスのUUIDを設定します。
IA64はEFI BIOSを使用します。ファイルシステムの環境設定ファイル
は、/boot/efi/SuSE/elilo.confであり、/etc/fstabではありません。
プロシージャを開始する前に、/boot/efi/SuSE/elilo.confファイルの
コピーをとります。
1 SANデバイスを接続せずに、SUSE Linux Enterprise Server for IA64をインス
トールします。
2 インストール後、システムをブートします。
3 rootユーザまたはそれと同等の権限で、端末コンソールを開きます。
4 /dev/disk/by-uuidディレクトリにナビゲートして、/boot、/root、
およびswapをインストールしたデバイスのUUIDを見つけます。
4a 端末コンソールのプロンプトで、次のように入力します。
cd /dev/disk/by-uuid
4b 次を入力して、すべてのパーティションをリストします。
ll
86
ストレージ管理ガイド
4c 次のようなUUIDを見つけます。
e014e482-1c2d-4d09-84ec-61b3aefde77a —> /dev/sda1
5 YaSTでブートローダオプションを使用して、ブートローダファイルを編集
します。
たとえば、次のように変更します。
root=/dev/sda1
変更先:
root=/dev/disk/by-uuid/e014e482-1c2d-4d09-84ec-61b3aefde77a
6 /boot/efi/SuSE/elilo.confファイルを編集して、システムデバイス
のエントリを場所からUUIDに変更します。
たとえば、次のように変更します。
/dev/sda1
/
reiserfs
acl,user_xattr
1 1
変更先:
UUID=e014e482-1c2d-4d09-84ec-61b3aefde77a
1 1
/
reiserfs
acl,user_xattr
重要
ファイル内に、不要な文字やスペースが残っていないようにしてくださ
い。
6.5 追加情報
udev(8)によるデバイス管理の詳細については、『SUSE® Linux Enterprise
Server 11 Administration Guide』の「Dynamic Kernel Device Management with
UUIDによるデバイスのマウント
87
udev」 [http://www.suse.com/documentation/sles11/book_sle
_admin/data/cha_udev.html]を参照してください。
udev(8)コマンドの詳細については、そのマニュアルページを参照してくだ
さい。端末コンソールのプロンプトで、次のように入力します。
man 8 udev
88
ストレージ管理ガイド
デバイスのマルチパスI/Oの管
理
7
このセクションでは、サーバ/ブロックストレージデバイス間のマルチパスの
フェールオーバーおよびパスの負荷分散を管理する方法について説明します。
• 7.1項 「マルチパスI/Oの理解」
(90 ページ)
• 7.2項 「マルチパス処理のプラニング」
• 7.3項 「マルチパス管理ツール」
(91 ページ)
(108 ページ)
• 7.4項 「マルチパス処理用システムの設定」
(118 ページ)
• 7.5項 「マルチパスI/Oサービスの有効化と機動」 (121 ページ)
• 7.6項 「/etc/multipath.conf Fileの作成または修正」
(122 ページ)
• 7.7項 「ポーリング、待ち行列、およびフェールバック用のデフォルトポリ
シーの設定」 (128 ページ)
• 7.8項 「非マルチパスデバイスのブラックリスト化」
• 7.9項 「ユーザフレンドリ名または別名の設定」
(129 ページ)
(130 ページ)
• 7.10項 「zSeriesデバイスのデフォルト設定の設定」 (135 ページ)
• 7.11項 「パスフェールオーバーのポリシーと優先度の設定」 (136 ページ)
• 7.12項 「ルートデバイスのマルチパスI/Oの設定」
(156 ページ)
デバイスのマルチパスI/Oの管理
89
• 7.13項 「既存ソフトウェアRAID用マルチパスI/Oの設定」
• 7.14項 「新規デバイスのスキャン(再起動なし)」
(161 ページ)
(164 ページ)
• 7.15項 「パーティショニングされた新規デバイスのスキャン(再起動なし)」
(168 ページ)
• 7.16項 「マルチパスI/Oステータスの表示」 (170 ページ)
• 7.17項 「エラーになったI/Oの管理」 (172 ページ)
• 7.18項 「停止したI/Oの解決」
(174 ページ)
• 7.19項 「MPIOのトラブルシューティング」
• 7.20項 「次に行う作業」
(174 ページ)
(176 ページ)
7.1 マルチパスI/Oの理解
マルチパス処理とは、サーバのホストバスアダプタおよびデバイスのストレー
ジコントローラ間で、複数の物理パスをまたいで、同じ物理または論理ブロッ
クストレージデバイスと通信するサーバの機能です。これは、通常、FC (Fibre
Channel)環境またはiSCSI SAN環境で行われます。複数のチャネルが使用可能
な際には、内蔵ストレージとのマルチ接続も可能です。
Linuxマルチ処理は、接続に耐障害性を与え、アクティブな接続全体.に負荷を
分散します。マルチパス処理が設定および実行されていると、自動的に、デ
バイス接続の障害が特定され、I/Oが代替の接続に再経路指定されます。
接続に関しては、多くのトラブルが欠陥のあるアダプタ、ケーブル、または
コントローラが原因で発生します。デバイスにマルチパスI/Oを設定すると、
マルチパスドライバがデバイス間のアクティブな接続を監視します。マルチ
パスドライバは、アクティブなパスのI/Oエラーを検出すると、トラフィック
をデバイスの指定セカンダリパスにフェールオーバーします。該当するパス
が正常に戻ると、そのパスに制御を戻すことができます。
90
ストレージ管理ガイド
7.2 マルチパス処理のプラニング
• 7.2.1項 「マルチパス処理のガイドライン」
(91 ページ)
• 7.2.2項 「multipath-tools-0.4.9におけるPRIO設定」
(95 ページ)
• 7.2.3項 「マルチパスデバイスでのWWID、ユーザフレンドリ名、および別
名の使用」 (96 ページ)
• 7.2.4項 「マルチパスデバイスでのLVM2の使用」
(97 ページ)
• 7.2.5項 「マルチパスデバイスでのmdadmの使用」
(100 ページ)
• 7.2.6項 「NetAppデバイスでのマルチパスの使用」
(101 ページ)
• 7.2.7項 「マルチパスデバイスでの--noflushの使用」 (101 ページ)
• 7.2.8項 「ルートデバイスがマルチパスの場合のSANタイムアウト設定」
(102 ページ)
• 7.2.9項 「マルチパスデバイスのパーティショニング」
(103 ページ)
• 7.2.10項 「マルチパスI/O用にサポートされているアーキテクチャ」
(104 ページ)
• 7.2.11項 「マルチパス処理用にサポートされているストレージアレイ」
(104 ページ)
7.2.1 マルチパス処理のガイドライン
マルチパスI/Oソリューションのプラニング時には、このセクションのガイド
ラインに従ってください。
• 7.2.1.1項 「前提条件」
(92 ページ)
• 7.2.1.2項 「ベンダ提供のマルチパスソリューション」
• 7.2.1.3項 「ディスク管理タスク」
• 7.2.1.4項 「ソフトウェアRAID」
(92 ページ)
(92 ページ)
(93 ページ)
デバイスのマルチパスI/Oの管理
91
• 7.2.1.5項 「高可用性ソリューション」
• 7.2.1.6項 「ボリュームマネージャ」
• 7.2.1.7項 「仮想化環境」
(93 ページ)
(95 ページ)
(95 ページ)
7.2.1.1 前提条件
• マルチパス処理は、デバイスレベルで管理されます。
• マルチパス処理対象のデバイスに使用するストレージアレイで、マルチパ
ス処理がサポートされている必要があります。詳細については、7.2.11項
「マルチパス処理用にサポートされているストレージアレイ」 (104 ページ)
を参照してください。
• サーバのホストバスアダプタおよびブロックストレージデバイスのバスコ
ントローラ間に複数の物理パスが存在している場合のみ、マルチパス処理
を設定する必要があります。論理デバイスのマルチパスは、サーバの見地
から設定します。
7.2.1.2 ベンダ提供のマルチパスソリューション
一部のストレージアレイについては、アレイの物理および論理デバイスのマ
ルチパス処理を管理するための独自のマルチパス処理ソフトウェアがベンダ
から提供されます。この場合は、ベンダの指示に従って、それらのデバイス
のマルチ処理を設定してください。
7.2.1.3 ディスク管理タスク
マルチパスをもつ物理デバイスまたは論理デバイスのマルチパス処理を設定
する前に、まず、次のようにディスク管理タスクを実行してください。
• サードパーティーツールで、物理ディスクを小さな論理ディスクに切り分
けます。
• サードパーティーツールで、物理ディスクまたは論理ディスクをパーティ
ションに分割します。稼働中のシステムでパーティションを変更した場合
は、DM-MP(Device Mapper Multipath: デバイスマッパーマルチパス)モジュー
92
ストレージ管理ガイド
ルによるそれら変更の自動的な検出や反映は行われません。DM-MPIOは再
初期化する必要があり、それには、通常、再起動が必要です。
• サードパーティーのSANアレイ管理ツールを使用して、ハードウェアRAID
デバイスを作成および設定します。
• サードパーティーのSANアレイ管理ツールを使用して、LUNなどの論理デ
バイスを作成します。所定のアレイにサポートされている論理デバイスタ
イプは、アレイベンダによって異なります。
7.2.1.4 ソフトウェアRAID
LinuxのソフトウェアRAIDの管理ソフトウェアは、マルチパス処理の上で実
行されます。複数のI/Oパスを持ち、ソフトウェアRAIDで使用予定の各デバイ
スは、まず、マルチパス処理用に設定してから、ソフトウェアRAIDデバイス
として作成する必要があります。マルチパスデバイスは自動検出できません。
ソフトウェアRAIDは、その下で実行されているマルチパス処理管理を認識し
ません。
既存のソフトウェアRAID用のマルチパス処理の設定については、7.13項 「既
存ソフトウェアRAID用マルチパスI/Oの設定」 (161 ページ)を参照してくださ
い。
7.2.1.5 高可用性ソリューション
ストレージリソースのクラスタリング用の高可用性ソリューションは、各ノー
ド上でマルチパス処理サービスをベースとして実行されます。各ノード上
の/etc/multipath.confファイル内の構成設定が、クラスタ全体で同一で
あるようにしてください。
以下を行って、マルチパスデバイスがすべてのデバイス間で同じ名前である
ようにしてください。
• UUIDと別名を使用して、マルチパスデバイスの名前が、クラスタ内のすべ
てのノードで同一となるようにします。別名は、すべてのノードにわたっ
て一意である必要があります。/etc/multipath.confファイルを、ノー
ドからクラスタ内の他のすべてのノードの/etc/ディレクトリにコピーし
ます。
デバイスのマルチパスI/Oの管理
93
• マルチパスがマップされたデバイスを使用する場合は、dm-uuid*名または
別名を/dev/disk/by-idディレクトリ内で指定し、デバイスの固定パス
インスタンスは指定しないようにします。詳細については、7.2.3項 「マル
チパスデバイスでのWWID、ユーザフレンドリ名、および別名の使
用」 (96 ページ)を参照してください。
• user_friendly_names構成オプションを、無効にしないよう設定しま
す。ユーザフレンドリ名はノードに固有ですが、クラスタ内のすべてのノー
ドにおいてデバイスに同じユーザフレンドリ名が割り当てられてはいない
可能性があります。
以下の操作により、システム定義のユーザフレンドリ名を、クラスタ内の
すべてのノードについて同一にすることができます。
1. 1つのノード上の/etc/multipath.confファイル内で、
a. user_friendly_names構成オプションをyesに設定して有効にしま
す。
マルチパスは、/var/lib/multipath/bindingsファイルを使用し
て、/dev/mapperディレクトリ内でmpath<n>の形式で、デバイスに
永続的かつ一意の名前を割り当てます。
b. (オプション) bindingsファイルに対して別の場所を指定するに
は、/etc/multipath.confファイルのdefaultsセクションにある、
bindings_fileオプションを設定します。
デフォルトの場所は、/var/lib/multipath/bindingsです。
2. ノード上のマルチパスデバイスをすべて設定します。
3. /etc/multipath.confファイルを、ノードからクラスタ内の他のすべ
てのノードの/etc/ディレクトリにコピーします。
4. bindingsファイルを、ノードから、クラスタ内の他のすべてのノード上
のbindings_fileパスにコピーします。
LAN上のデバイスをミラーリングするDRBD (Distributed Replicated Block Device)
高可用性ソリューションは、マルチパス処理をベースとして実行されます。
複数のI/Oパスを持ち、DRDBソリューションで使用予定のデバイスごとに、
94
ストレージ管理ガイド
マルチパス処理用デバイスを設定してから、DRBDを設定する必要がありま
す。
7.2.1.6 ボリュームマネージャ
LVM2やクラスタ化したLVM2などのボリュームマネージャは、マルチパス処
理をベースとして実行されます。LVM2またはcLVM2を使用してセグメント
マネージャおよびそのファイルシステムを作成するには、その前に、デバイ
スのマルチパス処理を設定する必要があります。詳細については、7.2.4項 「マ
ルチパスデバイスでのLVM2の使用」 (97 ページ)を参照してください。
7.2.1.7 仮想化環境
仮想化環境でマルチパス処理を使用する場合、マルチパス処理は、ホストサー
バ環境で制御されます。デバイスのマルチパス処理を設定してから、デバイ
スを仮想ゲストマシンに割り当ててください。
7.2.2 multipath-tools-0.4.9におけるPRIO設
定
SLES 11 SP2では、マルチパスツールを0.4.8から0.4.9にアップグレードしてい
ます。PRIO構文が一部変更されているため、/etc/multipath.confファイ
ルを適宜マニュアルで修正して、新たな構文に準拠するようにする必要があ
ります。
/etc/multipath.confファイル内のprioキーワードが、multipath-tools
-0.4.9では変更されています。prio行で、Prioritizerが指定されます。
Prioritizerが引数を必要とする場合、その引数は2行目のprio_argsキーワー
ドで指定します。これまでは、Prioritizerとその引数は、prio行に含まれてい
ました。
マルチパスツール0.4.9以降では、/etc/multipath.confファイルの
defaults{}またはdevices{}セクションのprio設定を使用します。キー
ワードprioが、multipath{)セクションの個別のmultipaths定義に指定
された場合は、暗黙のうちに無視されます。SLES 11 SP1用のマルチパスツー
ル0.4.8以前では、multipath{)セクションの個別のmultipaths定義内の
デバイスのマルチパスI/Oの管理
95
prio設定で、defaults{}またはdevices{}セクションのprio設定を上書き
することができました。
7.2.3 マルチパスデバイスでのWWID、ユー
ザフレンドリ名、および別名の使用
マルチパスデバイスは、そのWWID、ユーザフレンドリ名、またはそれに割
り当てた別名で一意に識別されます。/dev/sdnおよび/dev/dm-nの形式の
デバイスノード名は、再起動の際に変わる可能性があり、毎回異なるデバイ
スに割り当てられることになります。デバイスのWWID、ユーザフレンドリ
名、および別名は、再起動の際にも変わることなく、デバイスの識別には望
ましい方法です。
LUNディレクトリ全体を使用する場合は(たとえばSAN機能を使用してスト
レージのパーティションを行っている場合など)、mkfs、fstab、ご使用のア
プリケーションなどに、/dev/disk/by-id/xxxという名前を使用すること
ができます。パーティションで分割されたデバイスは、デバイス名の後ろに
_part<n>が付加されます(/dev/disk/by-id/xxx_part1など)。
/dev/disk/by-idディレクトリでは、マルチパスのマップ処理がなされた
デバイスは、dm-uuid*名または別名(/etc/multipath.confファイル内で
別名を割り当てている場合)で表されます。 scsi-およびwwn-のデバイス名
は、そのデバイスへの物理的パスを表します。
重要
マルチパスがマップされたデバイスを使用する場合は、dm-uuid*名または
別名を/dev/disk/by-idディレクトリ内で指定し、デバイスの固定パス
インスタンスは指定しないようにします。
/etc/multipath.confファイル内でデバイスの別名を定義する場合は、必
ず各デバイスのWWID (3600508e0000000009e6baa6f609e7908など)を使
用し、そのWWNは使用しないようにしてください。WWNは、デバイスIDの
最初の文字を0xで置き換えます(0x600508e0000000009e6baa6f609e7908
など)。
96
ストレージ管理ガイド
マルチパスデバイスでのユーザフレンドリ名および別名の使用の詳細につい
ては、7.9項 「ユーザフレンドリ名または別名の設定」 (130 ページ)を参照し
てください。
7.2.4 マルチパスデバイスでのLVM2の使用
lvm.conf用の設定ファイルが、固定のパス名ではなく、必ずマルチパスデ
バイス名をポイントするようにします。これは、boot.multipathが有効に
なっていて、boot.lvm以前にロードされていれば、自動的に行われます。
• 7.2.4.1項 「/etc/lvm/lvm.confファイルでのマルチパスデバイスフィルタの追
加」 (97 ページ)
• 7.2.4.2項 「boot.multipathの有効化」
(99 ページ)
• 7.2.4.3項 「LVMデバイスに対するMPIOマッピングのトラブルシューティン
グ」 (99 ページ)
7.2.4.1 /etc/lvm/lvm.confファイルでのマルチパスデ
バイスフィルタの追加
LVM2は、デフォルトでは、マルチパスデバイスを認識しません。LVM2が物
理ボリュームとしてマルチパスデバイスを認識するようにするには、/etc/
lvm/lvm.confを修正して、マルチパスのI/O階層でマルチパスデバイスをス
キャンするようにする必要があります。
マルチパスフィルタを追加すると、LVMは、SAN (/dev/sd*)への個別パスを表
す生デバイスノードへの物理的パスをスキャンして使用することができませ
ん。マルチパス処理の設定後、必ず、LVMが、デバイス(/dev/disk/by-id/
dm-uuid-.*-mpath-)のデバイスマッパー名だけをスキャンするようにフィ
ルタパスを指定します。
/etc/lvm/lvm.confを変更してマルチパスを使用するには次の手順に従い
ます。
1 /etc/lvm/lvm.confファイルをテキストエディタで開きます。
デバイスのマルチパスI/Oの管理
97
/etc/lvm/lvm.confが存在しない場合は、次のコマンドを端末コンソー
ルのプロンプトで入力することによって、現在のLVM設定に基づいた設定
ファイルを作成できます。
lvm dumpconfig > /etc/lvm/lvm.conf
2 /etc/lvm/lvm.confにあるfilterエントリとtypesエントリを、次の
ように変更します。
filter = [ "a|/dev/disk/by-id/.*|", "r|.*|" ]
types = [ "device-mapper", 1 ]
このように設定すると、LVM2はby-idパスだけをスキャンし、それ以外の
すべてのパスを拒否します。
ユーザフレンドリ名を使用している場合は、マルチパス処理の設定後に、
デバイスマッパー名だけがスキャンされるようにフィルタパスを指定しま
す。次のようにフィルタパスを指定すると、マルチパスデバイス上のパー
ティションのみが許容されます。
filter = [ "a|/dev/disk/by-id/dm-uuid-.*-mpath-.*|", "r|.*|" ]
デバイスマッパー名に対して生ディスクとパーティションの両方を許容す
る場合は、mpathの前にハイフン(-)を付けずに、次のように指定します。
filter = [ "a|/dev/disk/by-id/dm-uuid-.*mpath-.*|", "r|.*|" ]
3 非マルチパスデバイスでもLVM2を使用する場合は、filterエントリと
typesエントリに必要な調整を加えて、ご使用の設定に合わせます。さも
ないと、lvm.confファイルをマルチパス向けに変更後、pvscanで他の
LVMデバイスが認識できなくなります。
LVMを使用して設定されたデバイスだけをLVMキャッシュに含めるので、
filterでどの非マルチパスデバイスを含めるかについて詳細に指定できる必
要があります。
たとえば、ローカルディスクが/dev/sda、すべてのSANデバイスが/dev/
sdbとそれ以上の場合、次のようにfilterでローカルパスとマルチパスを指
定します。
98
ストレージ管理ガイド
filter = [ "a|/dev/sda.*|", "a|/dev/disk/by-id/.*|", "r|.*|" ]
types = [ "device-mapper", 253 ]
4 ファイルを保存します。
5 dm-multipathを/etc/sysconfig/kernel:INITRD_MODULESに追加しま
す。
6 新しいinitrdを作成して、デバイスマッパーマルチパスのサービスが変更
後の設定でロードされるようにします。mkinitrdの実行が必要なのは、
ルート(/)デバイスまたはその一部(/var、/etc、/logなど)がSAN上にあ
り、マルチパスのブートが必要な場合のみです。
端末コンソールのプロンプトで、次のように入力します。
mkinitrd -f multipath
7 サーバを再起動して、変更内容を適用します。
7.2.4.2 boot.multipathの有効化
マルチパスのマップが正しく構築されるよう、マルチパスは、LVMの前にロー
ドされる必要があります。 LVMの後にマルチパスをロードすると、マルチパ
スデバイスに対するデバイスマップが不完全になる可能性があります。なぜ
なら、LVMによりデバイスがロックされ、 MPIOが正しくマップを作成でき
ないからです。
システムデバイスがMPIOやLVMを使用しないローカルなデバイスである場合
は、boot.multipathとboot.lvmの両方を無効にできます。サーバの起動
後、LVMを起動する前にマニュアルでマルチパスを起動し、pvscanコマン
ドを実行してLVMオブジェクトを認識することができます。
7.2.4.3 LVMデバイスに対するMPIOマッピングのトラ
ブルシューティング
LVMプロセスを開始するには、タイミングが重要です。MPIOのマッピングを
行う前にLVMを起動した場合、LVMは、そのマルチパスではなくデバイスに
デバイスのマルチパスI/Oの管理
99
対する固定パスを使用する可能性があります。デバイスは機能するため、そ
の固定パスが失敗となるまで、デバイスのMPIOマップが不完全であることに
気が付かないかもしれません。この問題は、boot.multipathを有効にし
て、7.2.4.1項 「/etc/lvm/lvm.confファイルでのマルチパスデバイスフィルタの
追加」 (97 ページ)に記載する指示に従うことで、防ぐことができます。
マッピングの問題に関するトラブルシューティングを行うには、dmsetupを
使用して、それぞれのマルチパスデバイスに、予定数のパスが存在するかど
うかチェックすることができます。rootユーザとして、コマンドプロンプト
に次のように入力します。
dmsetup ls --tree
以下のサンプルの応答では、最初のデバイスに4つのパスがあります。2番目
のデバイスでは、パスは1つだけです。3番目のデバイスには、2つのパスがあ
ります。アクティブなパスとパッシブなパスの区別は、このツールでは報告
されません。
vg910-lv00 (253:23)
└─ 360a980006465576657346d4b6c593362 (253:10)
|- (65:96)
|- (8:128)
|- (8:240)
└─ (8:16)
vg00-lv08 (253:9)
└─ (8:3)
system_vg-data_lv (253:1)
└─36006016088d014007e0d0d2213ecdf11 (253:0)
├─ (8:32)
└─ (8:48)
不完全なマッピングの場合は通常、返されるパスの数が非常に少なく、メ
ジャー番号の253が表示されません。たとえば、3番目のデバイスでマッピン
グが不完全な場合を、下に示します。
system_vg-data_lv (8:31)
└─ (8:32)
7.2.5 マルチパスデバイスでのmdadmの使用
mdadmツールでは、デバイスのノードパスではなく、IDでデバイスにアクセ
スする必要があります。したがって、/etc/mdadm.confファイル内のDEVICE
100
ストレージ管理ガイド
を次のように設定して、マルチパスの設定後に、デバイスマッパー名のみが
スキャンされるようにする必要があります。
DEVICE /dev/disk/by-id/dm-uuid-.*mpath-.*
ユーザフレンドリ名またはマルチパスの別名を使用している場合は、次のよ
うにパスを指定します。
DEVICE /dev/disk/by-id/dm-name-.*
7.2.6 NetAppデバイスでのマルチパスの使用
NetAppデバイスでマルチパスを使用する場合は、/etc/multipath.conf
ファイルで次の設定を行うことを推奨します。
• NetAppデバイスに対してグローバルに、次のパラメータにデフォルト値を
設定する。
max_fds max
queue_without_daemon no
• ハードウェアテーブル内で、NetAppデバイスに対する次のパラメータにデ
フォルト値を設定する。
dev_loss_tmo infinity
fast_io_fail_tmo 5
features "3 queue_if_no_path pg_init_retries 50"
7.2.7 マルチパスデバイスでの--noflushの使
用
マルチパスデバイス上で実行する場合は、オプション--noflushを必ず使用
する必要があります。
デバイスのマルチパスI/Oの管理
101
たとえば、テーブルのリロードを行うスクリプトでは、マルチパストポロジ
情報が必要なので、再開時に--noflushオプションを使用して、残っている
I/Oがフラッシュされないようにします。
load
resume --noflush
7.2.8 ルートデバイスがマルチパスの場合の
SANタイムアウト設定
マルチパスデバイスにルート(/)があるシステムは、すべてのパスに障害が発
生し、それらのパスがシステムから削除されると、停止することがあります。
これは、ストレージサブシステム(ファイバチャネルストレージアレイなど)か
らdev_loss_tmoタイムアウトを受信するからです。
システムデバイスがマルチパスを使用して設定され、マルチパスの
no_path_retry設定がアクティブな場合は、ストレージサブシステムの
dev_loss_tmo設定を適宜変更して、すべてのパスがダウンするシナリオで
デバイスが削除されないようにする必要があります。dev_loss_tmo値をマ
ルチパスのno_path_retry設定以上にすることを強くお勧めします。
ストレージサブシステムのdev_los_tmoの推奨設定は、次のとおりです。
<dev_loss_tmo> = <no_path_retry> * <polling_interval>
マルチパス値については、次の定義が適用されます。
• no_path_retryは、パスが失われたとみなされて入出力のキューイングが
停止されるまでのマルチパス入出力の再試行数です。
• polling_intervalは、パッチチェックの間隔(秒単位)です。
これらの各マルチパス値は、/etc/multipath.conf環境設定ファイルから
設定する必要があります。詳細については、7.6項 「/etc/multipath.conf Fileの
作成または修正」 (122 ページ)を参照してください。
102
ストレージ管理ガイド
7.2.9 マルチパスデバイスのパーティショニ
ング
アップグレード中は、マルチパスデバイスのパーティション方法の動作変更
によって、設定に影響を及ぼすことがあります。
• 7.2.9.1項 「SUSE Linux Enterprise Server 11」
(103 ページ)
• 7.2.9.2項 「SUSE Linux Enterprise Server 10」
(104 ページ)
• 7.2.9.3項 「SUSE Linux Enterprise Server 9」
(104 ページ)
7.2.9.1 SUSE Linux Enterprise Server 11
SUSE Linux Enterprise Server 11では、デフォルトのマルチパスセットアップは
udevを使用して、マルチパス処理の開始時に/dev/disk/by-idディレクト
リ内の既存のシンボリックリンクを上書きします。マルチパス処理開始前の
シンボリックリンクは、SCSIデバイスをそのscsi-xxx名でポイントします。
マルチパス処理実行中のシンボリックリンクは、SCSIデバイスをそのdm-uuid
-xxx名でポイントします。これによって、マルチパス処理が開始したかどう
かに関わりなく、/dev/disk/by-idパス内のシンボリックリンクは、継続
的に同じデバイスをポイントします。
lvm.confおよびmd.confに対する環境設定ファイルが、必ずマルチパスデ
バイスの名前をポイントするようにします。これは、boot.multipathが有
効になっていて、boot.lvmおよびboot.md以前にロードされていれば、自
動的に行われます。そうなっていない場合は、LVMおよびMDの環境設定ファ
イルにマルチパスデバイスに対する固定パスが含まれている可能性があり、
マルチパスデバイス名を使用するためにこれらを修正する必要があります。
LVM2およびcLVMについては、7.2.4項 「マルチパスデバイスでのLVM2の使
用」 (97 ページ)を参照してください。ソフトウェアRAIDについては、7.13項
「既存ソフトウェアRAID用マルチパスI/Oの設定」 (161 ページ)を参照してく
ださい。
デバイスのマルチパスI/Oの管理
103
7.2.9.2 SUSE Linux Enterprise Server 10
SUSE Linux Enterprise Server 10では、kpartxソフトウェアを/etc/init.d/
boot.multipathで使用することで、再起動なしで、任意の新しく作成され
たパーティションの環境設定ファイルmultipath.confの/dev/dm-*行に
シンボリックリンクが追加されます。これにより、udevdがトリガされ
て、/dev/disk/by-*にシンボリックリンクを書き込みます。主なメリット
は、サーバの再起動なしで、新しいパラメータでkpartxを呼び出せることで
す。
7.2.9.3 SUSE Linux Enterprise Server 9
SUSE Linux Enterprise Server 9では、マルチパスI/Oデバイス自体をパーティ
ショニングすることはできません。ベースになる物理デバイスが既にパーティ
ショニングされている場合、マルチパスI/Oデバイスはそれらのパーティショ
ンを反映し、レイヤが/dev/disk/by-id/<name>p1 ... pNデバイスを提
供するので、マルチパスI/Oレイヤを介してパーティションにアクセスできま
す。結果として、マルチパスI/Oの有効化の前にデバイスをパーティション分
割する必要があります。実行中のシステムのパーティション分割を変更した
場合、これらの変更は、DM-MPIOでは自動的な検出および反映はされませ
ん。デバイスは、再初期化する必要があり、その際には、通常、再起動が必
要です。
7.2.10 マルチパスI/O用にサポートされてい
るアーキテクチャ
マルチパス処理のドライバおよびツールは、サポートされている7つのプロ
セッサアーキテクチャ(IA32、AMD64/EM64T、IPF/IA64、32ビットと64ビッ
トのp-Series、31ビットと64ビットのz-Series)をすべてサポートします。
7.2.11 マルチパス処理用にサポートされてい
るストレージアレイ
マルチパス処理のドライバおよび ツールは、大半のストレージアレイをサポー
トします。マルチパスデバイスを格納するストレージアレイは、マルチパス
104
ストレージ管理ガイド
処理用のドライバとツールを使用するために、マルチパス処理をサポートす
る必要があります。一部のストレージアレイベンダは、独自のマルチパス処
理管理ツールを提供しています。ベンダのハードウェアマニュアルを参照し
て、どのような設定が必要か判別してください。
• 7.2.11.1項 「マルチパス処理用に自動検出されるストレージアレイ」
(105 ページ)
• 7.2.11.2項 「マルチパス処理サポートについてテスト済みのストレージアレ
イ」 (107 ページ)
• 7.2.11.3項 「特定のハードウェアハンドラを必要とするストレージアレイ」
(107 ページ)
7.2.11.1 マルチパス処理用に自動検出されるストレー
ジアレイ
multipath-toolsパッケージは、次のようなトレージアレイを自動的に検
出します。
3PARdata VV
Compaq HSV110
Compaq MSA1000
DDN SAN MultiDirector
DEC HSG80
EMC CLARiiON CX
EMC Symmetrix
FSC CentricStor
Hewlett Packard (HP) A6189A
HP HSV110
HP HSV210
HP Open
Hitachi DF400
Hitachi DF500
Hitachi DF600
IBM 3542
IBM ProFibre 4000R
NetApp
SGI TP9100
デバイスのマルチパスI/Oの管理
105
SGI TP9300
SGI TP9400
SGI TP9500
STK OPENstorage DS280
Sun StorEdge 3510
Sun T4
ただし、他のほとんどのストレージアレイも有効です。ストレージアレイが
自動的に検出されると、マルチパス処理のデフォルト設定が適用されます。
デフォルト以外の設定を使用したい場合は、手動で/etc/multipath.conf
ファイルを作成および設定する必要があります。詳細については、7.6項
「/etc/multipath.conf Fileの作成または修正」 (122 ページ)を参照してください。
IBM zSeriesデバイスをマルチパス処理でテストした結果、dev_loss_tmoパラ
メータを90秒に、fast_io_fail_tmoパラメータを5秒に設定する必要があること
わかりました。zSeriesデバイスをご使用の場合は、手動で/etc/multipath
.confファイルの作成と設定を行い、値を指定する必要があります。詳細に
ついては、7.10項 「zSeriesデバイスのデフォルト設定の設定」 (135 ページ)を
参照してください。
自動検出されないハードウェアについては、/etc/multipath.confファイ
ルのDEVICESセクションに環境設定の適切なエントリが必要です。この場合
は、手動で、環境設定ファイルを作成し、設定する必要があります。詳細に
ついては、7.6項 「/etc/multipath.conf Fileの作成または修正」 (122 ページ)を参
照してください。
次の点に留意してください。
• 自動検出されたすべてのストレージアレイがSUSE Linux Enterprise Serverで
テスト済みというわけではありません。詳細については、7.2.11.2項 「マル
チパス処理サポートについてテスト済みのストレージアレイ」 (107 ページ)
を参照してください。
• 一部のストレージアレイでは、特定のハードウェアハンドラが必要なこと
があります。ハードウェアハンドラは、パスグループの切り替え時とI/Oエ
ラーの処理時に、ハードウェア固有のアクションを実行するカーネルモ
ジュールです。詳細については、7.2.11.3項 「特定のハードウェアハンドラ
を必要とするストレージアレイ」 (107 ページ)を参照してください。
106
ストレージ管理ガイド
• /etc/multipath.confファイルの変更後、mkinitrdを実行してシステ
ム上にINITRDを作成し、次に、再起動で変更内容を有効にする必要があり
ます。
7.2.11.2 マルチパス処理サポートについてテスト済み
のストレージアレイ
次のストレージアレイは、SUSE Linux Enterprise Serverでテスト済みです。:
EMC
Hitachi
Hewlett-Packard/Compaq
IBM
NetApp
SGI
他のベンダのストレージアレイもほとんど機能するはずです。該当するベン
ダのマニュアルを参照してください。multipath-toolsパッケージによっ
て認識されるデフォルトストレージアレイのリストについては、7.2.11.1項
「マルチパス処理用に自動検出されるストレージアレイ」 (105 ページ)を参照
してください。
7.2.11.3 特定のハードウェアハンドラを必要とするス
トレージアレイ
あるパスから他のパスにフェイルオーバーするには特別なコマンドが必要な
ストレージアレイ、または非標準の特別なエラー処理が必要なストレージア
レイには、より拡張されたサポートが必要なことがあります。したがって、
デバイスマッパーマルチパスサービスには、ハードウェアハンドラ用フック
があります。たとえば、そのようなEMC CLARiiON CXファミリアレイ用ハン
ドラが1つ、既に提供されています。
重要
ハードウェアベンダのマニュアルを参照して、そのハードウェアハンドラ
をデバイスマッパーマルチパス用にインストールする必要があるかどうか
判別してください。
デバイスのマルチパスI/Oの管理
107
multipath -tコマンドは、特定のハードウェアハンドラで特別な処理を必
要とするストレージアレイの内部テーブルを表示します。ただし、表示され
るリストは、サポートされているアレイの包括的なリストではありません。
特別な処理を必要とし、multipath-toolsの開発者がツールの開発中にア
クセスしたアレイだけがリストされます。
重要
真のアクティブ/アクティブマルチパスサポートをもつアレイは、特別な処
理を必要としないので、multipath -tコマンドでは表示されません。
また、multipath -tテーブルでリストされている場合でも、必ずしも、そ
の特定ハードウェアでSUSE Linux Enterprise Serverがテスト済みということで
はありません。テスト済みのストレージアレイのリストについては、7.2.11.2
項 「マルチパス処理サポートについてテスト済みのストレージアレ
イ」 (107 ページ)を参照してください。
7.3 マルチパス管理ツール
SUSE Linux Enterprise Server 10以降のマルチパス処理サポートは、Linux 2.6
カーネルのデバイスマッパーマルチパスモジュールとmultipath-toolsユー
ザスペースパッケージに基づいています。MDADM (Multiple Devices
Administration)ユーティリティ(mdadm)を使用すると、マルチパスデバイスの
状態を表示できます。
• 7.3.1項 「デバイスマッパーマルチパスモジュール」
• 7.3.2項 「マルチパスI/O管理ツール」
(112 ページ)
• 7.3.3項 「マルチパスデバイスへのMDADMの使用」
• 7.3.4項 「Linux multipath(8)コマンド」
108
ストレージ管理ガイド
(109 ページ)
(114 ページ)
(113 ページ)
7.3.1 デバイスマッパーマルチパスモジュー
ル
デバイスマッパーマルチパス(DM-MP)モジュールは、Linuxにマルチパス処理
機能を提供します。DM-MPIOは、SUSE Linux Enterprise Server 11でのマルチ
パス処理の推奨ソリューションです。DM-MPIOは、NovellおよびSUSEによっ
て完全にサポートされている製品に付属する唯一のマルチパス処理オプショ
ンです。
DM-MPIOは、多様なセットアップでマルチパス処理サブシステムを自動設定
します。デバイスごとに最大8個のパスの設定がサポートされています。アク
ティブ/パッシブ(1つのパスがアクティブで、他のパスがパッシブ)またはアク
ティブ/アクティブ(ラウンドロビン方式の負荷分散で全パスがアクティブ)の
構成がサポートされています。
DM-MPIOフレームワークは、2つの方法で拡張できます。
• 特定のハードウェアハンドラの使用詳細については、7.2.11.3項 「特定の
ハードウェアハンドラを必要とするストレージアレイ」 (107 ページ)を参照
してください。
• ラウンドロビンアルゴリズムより高度な負荷分散アルゴリズムの使用
DM-MPIOのユーザスペースコンポーネントにより、自動的なパスの検出とグ
ループ化のほか、自動的なパスの再テストが実行されるので、障害が発生し
たパスは、正常に戻ると、自動的に復帰します。これにより、管理者の手間
を最低限に抑えることができます。
DM-MPIOは、デバイス自体の障害ではなく、デバイスへのパスの障害からシ
ステムを保護します。アクティブなパスの1つが失われると(たとえば、ネッ
トワークアダプタが破損する、光ファイバケーブルが外れるなど)、残りのパ
スにI/Oをリダイレクトします。アクティブ/パッシブ構成の場合は、パスが
パッシブパスの1つにフェールオーバーします。ラウンドロビン式負荷分散構
成を使用している場合は、トラフィックの負荷が残りの正常なパス全体に分
散されます。すべてのアクティブパスに障害が起きた場合は、アクティブで
ないセカンダリパスが有効になり、約30秒の遅延でフェールオーバーが開始
されます。
デバイスのマルチパスI/Oの管理
109
ディスクアレイに複数のストレージプロセッサがある場合は、アクセスした
いLUNを所有するストレージプロセッサにSANスイッチが接続していること
を必ず確認してください。ほとんどのディスクアレイでは、すべてのLUNが
両方のストレージプロセッサに属しているので、両方の接続がアクティブで
す。
注記
一部のディスクアレイでは、ストレージアレイがストレージプロセッサを
介してトラフィックを管理するので、一度に1つのストレージプロセッサだ
けが提示されます。1つのプロセッサがアクティブとなり、もう1つのプロ
セッサは障害が発生するまでパッシブとなります。間違ったストレージプ
ロセッサ(パッシブなパスをもつプロセッサ)に接続している場合は、予期さ
れたLUNが表示されなかったり、それらのLUNが表示されてもアクセスしよ
うとするとエラーが発生することがあります。
表 7.1 ストレージアレイのマルチパスI/O機能
ストレージアレイ
の機能
説明
アクティブ/パッ
シブコントローラ
1つのコントローラはアクティブで、すべてのLUN
に対応します。2つ目のコントローラは、スタンバ
イとして機能します。2つ目のコントローラは、オ
ペレーティングシステムが冗長なパスを認識するよ
うに、マルチパスコンポーネントに対するLUNの提
示も行います。プライマリコントローラに障害が発
生した場合は、セカンダリコントローラが引き継
ぎ、すべてのLUNに対応します。
一部のアレイでは、LUNをさまざまなコントローラ
に割り当てることができます。所定のLUNは、その
アクティブコントローラとなる1つのコントローラ
に割り当てられます。一度に、1つのコントローラ
が所定のLUNのディスクI/Oを行い、2つ目のコント
ローラがそのLUNのスタンバイコントローラとなり
ます。2つ目のコントローラは、パスの提示もしま
すが、ディスクI/Oは行えません。そのLUNを使用
するサーバは、LUNの割り当て先のコントローラに
接続します。LUNのセットに対するプライマリコン
110
ストレージ管理ガイド
ストレージアレイ
の機能
説明
トローラに障害が発生すると、セカンダリコント
ローラが引き継ぎ、すべてのLUNに対応します。
アクティブ/パッ
シブコントローラ
両方のコントローラがすべてのLUNの負荷を共有
し、任意の所定のLUNのディスクI/Oを処理できま
す。1つのコントローラに障害が発生すると、2つ目
のコントローラが自動的にすべてのトラフィックを
処理します。
負荷分散
デバイスマッパーマルチパスドライバは、自動的
に、すべてのアクティブパス全体にトラフィックの
負荷を分散します。
コントローラの
フェールオーバー
アクティブなコントローラがパッシブなコントロー
ラにフェールオーバーすると、デバイスマッパーマ
ルチパスドライバがホスト/スタンバイ間のパスを
自動的に有効にし、それらをプライマリパスにしま
す。
ブート/ルートデ
バイスのサポート
マルチパス処理は、SUSE Linux Enterprise Server 10
以降のルート(/)デバイスに対してサポートされま
す。ホストサーバは、ブートデバイス用の、現在ア
クティブなコントローラおよびストレージプロセッ
サに接続する必要があります。
マルチパス処理は、SUSE Linux Enterprise Server 11
以降の/bootデバイスに対してサポートされていま
す。
デバイスマッパーマルチパスは、マルチパスデバイスの各パスを個別のSCSI
デバイスとして検出します。SCSIデバイス名は、/dev/sdNの形式をとりま
す。ここで、Nは、デバイスに対して自動生成される文字であり、aで始まり、
デバイスの生成に応じてシーケンシャルに発行されます(/dev/sda、/dev/
sdbなど)。デバイス数が26を超えると、文字が2つ使用され、/dev/sdzの次
のデバイスは/dev/sdaa、その次は、その次は/dev/sdabと続きます。
デバイスのマルチパスI/Oの管理
111
複数のパスが自動的に検出されない場合は、それらを/etc/multipath.conf
ファイルで手動設定できます。multipath.confファイルは、システム管理
者によって作成および設定されるまで存在しません。詳細については、7.6項
「/etc/multipath.conf Fileの作成または修正」 (122 ページ)を参照してください。
7.3.2 マルチパスI/O管理ツール
multipath-toolsユーザスペースパッケージは、自動的にパスを検出し、
グループ化します。このパッケージは、自動的にパスの定期テストを行うの
で、障害が発生したパスは、正常に戻ると、自動的に復帰します。これによ
り、管理者の手間を最低限に抑えることができます。
表 7.2 multipath-toolsパッケージに含まれるツール
ツール
説明
multipath
システムをスキャンしてマルチパスデバイスを検出
し、アセンブルします。
multipathd
mapsイベントを待機し、multipathを実行します。
devmap-name
デバイスマップ(devmap)のためのudevに意味のあ
るデバイス名を与えます。
kpartx
マルチパスデバイス上のパーティションにリニア
devmapをマップします。これにより、デバイス上
のパーティションのマルチパスモニタリングを作成
することが可能になります。
パッケージのファイルリストは、サーバのアーキテクチャによって異なるこ
とがあります。multipath-toolsパッケージに含まれたファイルのリストについ
ては、「SUSE Linux Enterprise Server Technical Specifications」>「Package
Descriptions 」Webページ [http://www.novell.com/products/server/
techspecs.html?tab=1]にアクセスし、目的のアーキテクチャを見つけ、
[パッケージを名前でソート]を選択し、次に、「multipath-tools」で検索し
て、そのアーキテクチャのパッケージリストを見つけます。
112
ストレージ管理ガイド
コマンドオプションrpm -qlまたはrpm -qplを使用してパッケージ自体を
クエリすることによって、RPMファイルのファイルリストを判別することも
できます。
• インストールしたパッケージをクエリするには、次のコマンドを入力しま
す。
rpm -ql <package_name>
• インストールしていないパッケージをクエリするには、次のコマンドを入
力します。
rpm -qpl <URL_or_path_to_package>
multipath-toolsパッケージがインストールされているかどうか確認する
には、次の操作を行います。
• 端末コンソールのプロンプトで、次のように入力します。
rpm -q multipath-tools
パッケージがインストールされている場合は、パッケージ名を繰り返し、
バージョン情報を示す応答メッセージが表示されます。
multipath-tools-04.7-34.23
パッケージがインストールされていない場合は、次の応答メッセージが表
示されます。
package multipath-tools is not installed
7.3.3 マルチパスデバイスへのMDADMの使
用
デフォルトのデバイスハンドラはUdevであり、デバイスは、デバイスノード
名ではなく、Worldwide IDによって、システムに自動的に認識されます。こ
れによって、環境設定ファイル(mdadm.confとlvm.conf)がマルチパスデバ
デバイスのマルチパスI/Oの管理
113
イスを正しく認識しないという、MDADMおよびLVMの旧リリースにあった
問題が解決します。
LVM2の場合のようにmdadmでは、デバイスノードパスではなく、IDによって
デバイスをアクセスする必要があります。したがって、/etc/mdadm.conf
内のDEVICEエントリを次のように設定してください。
DEVICE /dev/disk/by-id/*
ユーザフレンドリな名前を使用している場合は、次のようにパスを指定し、
マルチパス処理の設定後に、デバイスマッパー名だけがスキャンされるよう
にします。
DEVICE /dev/disk/by-id/dm-uuid-.*-mpath-.*
MDADMのインストールを確認するには、次を行います。
• 端末コンソールのプロンプトで、次のコマンドを入力し、mdadmパッケー
ジがインストールされているかどうか確認します。
rpm -q mdadm
パッケージがインストールされている場合は、パッケージ名を繰り返し、
バージョン情報を示す応答メッセージが表示されます。次に例を示します。
mdadm-2.6-0.11
パッケージがインストールされていない場合は、次の応答メッセージが表
示されます。
package mdadm is not installed
/etc/lvm/lvm.confファイルの変更方法については、7.2.4項 「マルチパス
デバイスでのLVM2の使用」 (97 ページ)を参照してください。
7.3.4 Linux multipath(8)コマンド
マルチパスデバイスを設定し、管理するには、multipath(8)コマンドを使
用します。
114
ストレージ管理ガイド
multipath(8)コマンドの一般構文:
multipath [-v verbosity] [-d] [-h|-l|-ll|-f|-F] [-p failover | multibus |
group_by_serial | group_by_prio| group_by_node_name ] [devicename]
一般的な例
multipath
すべてのマルチパスデバイスを設定します。
multipath devicename
特定のマルチパスデバイスを設定します。
devicenameを、/dev/sdb (udevにより$DEVNAME変数で表示)または
major:minor形式などのデバイスノード名で置き換えます。デバイス名は、
マルチパスマップ名でも構いません。
multipath -f
マルチパスマップとそのデバイスにマップされたパーティションを選択的
に抑制します。
multipath -d
ドライ実行。可能性のあるマルチパスデバイスを表示しますが、デバイス
の作成やデバイスマップの更新は行いません。
multipath -v2 -d
ドライ実行で可能性のあるマルチパスデバイスのマルチパスマップ情報を
表示します。-v2オプションを使用すると、ローカルディスクのみが表示
されます。この冗長レベルでは、kpartxなどの他のツールへのフィード用
としてのみ、作成または更新したマルチパスの名前をプリントします。
デバイスがすでに存在し、変更がない場合には、出力はありません。設定
されているマルチパスデバイスのステータスを見るには、multipath
-llを使用します。
multipath -v2 devicename
特定の可能性のあるマルチパスデバイスを設定し、そのマルチパスマップ
情報を表示します。この冗長レベルでは、kpartxなどの他のツールへの
フィード用として、作成または更新したマルチパスの名前だけをプリント
します。
デバイスのマルチパスI/Oの管理
115
デバイスがすでに存在し、変更がない場合には、出力はありません。設定
されているマルチパスデバイスのステータスを見るには、multipath
-llを使用します。
devicenameを、/dev/sdb (udevにより$DEVNAME変数で表示)または
major:minor形式などのデバイスノード名で置き換えます。デバイス名は、
マルチパスマップ名でも構いません。
multipath -v3
可能性のあるマルチパスデバイスを設定し、それらのマルチパスマップ情
報を表示します。この冗長レベルでは、すべての検出されたパス、マルチ
パス、およびデバイスマップがプリントされます。wwidおよびデバイス
ノードの両方でブラックリスト化されたデバイスが表示されます。
multipath -v3 devicename
特定の可能性のあるマルチパスデバイスを設定し、それらの情報を表示し
ます。-v3オプションを使用すると、フルパスリストが表示されます。こ
の冗長レベルでは、すべての検出されたパス、マルチパス、およびデバイ
スマップがプリントされます。wwidおよびデバイスノードの両方でブラッ
クリスト化されたデバイスが表示されます。
devicenameを、/dev/sdb (udevにより$DEVNAME変数で表示)または
major:minor形式などのデバイスノード名で置き換えます。デバイス名は、
マルチパスマップ名でも構いません。
multipath -ll
すべてのマルチパスデバイスの状態を表示します。
multipath -ll devicename
指定されたマルチパスデバイスのステータスを表示します。
devicenameを、/dev/sdb (udevにより$DEVNAME変数で表示)または
major:minor形式などのデバイスノード名で置き換えます。デバイス名は、
マルチパスマップ名でも構いません。
multipath -F
すべての未使用のマルチパスデバイスマップをフラッシュします。これに
よって、マルチパスが解消したり、デバイスが削除されることはありませ
ん。
116
ストレージ管理ガイド
multipath -F devicename
指定されたマルチパスデバイスの未使用のマルチパスデバイスマップをフ
ラッシュします。これによって、マルチパスが解消したり、デバイスが削
除されることはありません。
devicenameを、/dev/sdb (udevにより$DEVNAME変数で表示)または
major:minor形式などのデバイスノード名で置き換えます。デバイス名は、
マルチパスマップ名でも構いません。
multipath -p [ failover | multibus | group_by_serial | group_by_prio |
group_by_node_name ]
表7.3「multipath -pコマンドのグループポリシーオプション」 (117 ページ)
に説明されているグループポリシーオプションの1つを指定することによ
り、グループポリシーを設定します。
表 7.3 multipath -pコマンドのグループポリシーオプション
ポリシーオプ
ション
説明
failover (フェー
ルオーバー)
優先度グループごとに1つのパス一度に使用でき
るスパスは1つだけです。
multibus
1つの優先度グループ内にすべてのパス
group_by_serial
検出されたSCSIシリアル番号(コントローラノー
ドの全世界規模の番号)ごとに1つの優先度グルー
プ
group_by_prio
パス優先度値ごとに1つの優先度グループ同じ優
先度のパスは同じ優先度グループに属します。優
先度は、コールアウトプログラムで決定されま
す。それらのプログラムは、グローバル、コント
ローラごと、またはマルチパスごとのオプション
として/etc/multipath.conf環境設定ファイル
で指定されます。
group_by_node_name
ターゲットノード名ごとに1つの優先度グループ
ターゲットノード名は、/sys/class/fc
デバイスのマルチパスI/Oの管理
117
ポリシーオプ
ション
説明
_transport/target*/node_nameにフェッチ
されます。
7.4 マルチパス処理用システムの設定
• 7.4.1項 「マルチパス処理用SANデバイスの準備」
(118 ページ)
• 7.4.2項 「マルチパスデバイスのパーティショニング」
• 7.4.3項 「マルチパス処理のためのサーバ設定」
(119 ページ)
(119 ページ)
• 7.4.4項 「ブートシーケンスへのmultipathdの追加」
(120 ページ)
7.4.1 マルチパス処理用SANデバイスの準備
SANデバイスのマルチパスI/Oを設定する前に、必要に応じて、次のように
SANデバイスを準備してください。
• ベンダのツールで、SANデバイスを設定し、ゾーン化します。
• ベンダのツールで、ストレージアレイ上のホストLUNのパーミッションを
設定します。
• Linux HBAドライバモジュールをインストールします。モジュールがインス
トールされると、ドライバがHBAを自動的にスキャンして、ホスト用のパー
ミッションをもつSANデバイスを検出します。それらのSANデバイスは、
以降の設定のため、ホストに提示されます。
注記
ご使用のHBAドライバのネイティブマルチパス処理が有効化していないこ
とを確認してください。
詳細については、ベンダの特定マニュアルを参照してください。
118
ストレージ管理ガイド
• ドライバモジュールがロードされたら、特定アレイのLUNまたはパーティ
ションに割り当てられたデバイスノードを検出します。
• SANデバイスがサーバ上でルートデバイスとして使用される場合は、7.2.8
項 「ルートデバイスがマルチパスの場合のSANタイムアウト設
定」 (102 ページ)に示されているように、デバイスのタイムアウト設定を変
更します。
HBAドライバがLUNを認識しない場合は、lsscsiを使用して、SCSIデバイ
スがオペレーティングシステムによって正しく認識されているかどうかチェッ
クできます。LUNがHBAドライバによって認識されない場合は、SANのゾー
ン化セットアップをチェックします。特に、LUNのマスキングがアクティブ
であるかどうか、LUNがサーバに正しく割り当てられているかどうかをチェッ
クしてください。
LUNがHBAドライバによって認識されても、対応するブロックデバイスが存
在しない場合は、カーネルパラメータを追加して、SCSIデバイスのスキャン
動作を変更する必要があります(LUNが連続的に番号付けされていないことを
示すなど)。NovellサポートナレッジベースにあるTID 3955167: Troubleshooting
SCSI (LUN) Scanning Issues [http://support.novell.com/]を参照してく
ださい。
7.4.2 マルチパスデバイスのパーティショニ
ング
複数のパスをもつパーティショニングデバイスは、推奨できませんが、サポー
トされています。kpartxツールを使用すると、再起動なしでマルチパスデバ
イスにパーティションを作成できます。マルチパス処理の設定前に、YaSTの
パーティショナ機能またはサードパーティーのパーティショニングツールの
使用により、デバイスをパーティショニングすることもできます。
7.4.3 マルチパス処理のためのサーバ設定
INITRDで、マルチパスI/Oデバイスの接続先コントローラのデバイスドライ
バを自動的にロードするには、システムを手動で設定する必要があります。
それには、必要なドライバモジュールを変数INITRD_MODULES(/etc/
sysconfig/kernelファイル内)に追加する必要があります。
デバイスのマルチパスI/Oの管理
119
たとえば、システムにccissドライバでアクセスされるRAIDコントローラが
あり、qla2xxxドライバでアクセスされるQlogicコントローラにマルチパスデ
バイスが接続されている場合は、次のようなエントリになります。
INITRD_MODULES="cciss"
QLogicドライバは、起動時に自動的にはロードされないので、ここで追加し
ます。
INITRD_MODULES="cciss qla23xx"
/etc/sysconfig/kernelの変更後は、システム上でINITRDを再作成し
(mkinitrdコマンド使用)、次に、再起動して変更内容を有効にする必要があ
ります。
ブートマネージャとしてLILOを使う場合は、/sbin/liloコマンドでLILOを
再インストールします。GRUBを使っている場合は、何も操作する必要はあり
ません。
7.4.4 ブートシーケンスへのmultipathdの追
加
このセクションに示すどちらかの方法を使用して、マルチパスI/Oサービス
(multipathd)をブートシーケンスに追加します。
• 7.4.4.1項 「YaSTを使用してmultipathdを追加する」
(120 ページ)
• 7.4.4.2項 「コマンドラインを使用してmultipathdを追加する」 (121 ページ)
7.4.4.1 YaSTを使用してmultipathdを追加する
1 YaSTで内で、[システム] > [システムサービス(ランレベル)] > [簡易
モード]の順にクリックします。
2 [multipathd]を選択してから、[Enable(有効)]をクリックします。
3 [OK]をクリックして、サービスの開始メッセージを確認します。
120
ストレージ管理ガイド
4 [完了]をクリックしてから、[はい]をクリックします。
変更内容は、サーバが再起動するまで有効にはなりません。
7.4.4.2 コマンドラインを使用してmultipathdを追加
する
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 端末コンソールのプロンプトで、次のように入力します。
insserv multipathd
7.5 マルチパスI/Oサービスの有効化と
機動
マルチパスサービスを有効にし、再起動時に起動するには:
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 端末コンソールのプロンプトで、次のように入力します。
chkconfig multipathd on
chkconfig boot.multipath on
boot.multipathサービスがシステムブートで自動的に開始しない場合は、次の
手順に従って、手動でサービスを開始します。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 <Enter>
デバイスのマルチパスI/Oの管理
121
/etc/init.d/boot.multipath start
/etc/init.d/multipathd start
7.6 /etc/multipath.conf Fileの作成ま
たは修正
/etc/multipath.confファイルは、作成しない限り、存在しません。マル
チパスの設定ファイルを作成して設定をパーソナライズしない限り、
multipathdデーモンの実行時にデフォルトのマルチパスデバイス設定が自
動的に適用されます。/usr/share/doc/packages/multipath-tools/
multipath.conf.syntheticファイルには、マルチパス設定の指針となる
サンプルファイル /etc/multipath.confが含まれています。
/etc/multipath.confファイルの作成または修正を行った場合、ファイル
を保存する際に変更が自動的には適用されません。これにより、変更をコミッ
トする前に、それを検証するためのドライ実行を行う時間がとれます。修正
した設定で問題なければ、実行中のマルチパスのデーモンに対するマルチパ
スマップを更新して使用するか、システムの再起動時など、multipathdデーモ
ンの次回起動時に、変更が適用されます。
• 7.6.1項 「/etc/multipath.confファイルの作成」
(122 ページ)
• 7.6.2項 「/etc/multipath.confファイルのセクション」
(123 ページ)
• 7.6.3項 「etc/multipath.confファイルでのマルチパスセットアップの確認」
(125 ページ)
• 7.6.4項 「/etc/multipath.confファイルの変更を適用したマルチパスマップの更
新」 (127 ページ)
7.6.1 /etc/multipath.confファイルの作成
/etc/multipath.confファイルが存在しない場合は、次のように、例をコ
ピーしてファイルを作成していください。
122
ストレージ管理ガイド
1 端末コンソールで、rootユーザとしてログインします。
2 次のコマンドを入力して(すべて1行で)、テンプレートをコピーします。
cp /usr/share/doc/packages/multipath-tools/multipath.conf.synthetic
/etc/multipath.conf
3 /usr/share/doc/packages/multipath-tools/multipath.conf
.annotatedファイルを、システムのマルチパス処理の設定方法を決定す
る参考として使用します。
4 SAN用の適切なdeviceエントリがあることを確認します。大半のベンダ
は、deviceセクションの正しいセットアップに関するマニュアルを提供し
ています。
/etc/multipath.confファイルでは、異なるSANには異なるdeviceセ
クションが必要です。自動的に検出されるストレージサブシステムを使用
する場合(7.2.11.2項 「マルチパス処理サポートについてテスト済みのスト
レージアレイ」 (107 ページ)参照)、そのデバイスのデフォルトエントリを
使用できます。/etc/multipath.confファイルをさらに設定する必要は
ありません。
5 ファイルを保存します。
7.6.2 /etc/multipath.confファイルのセクショ
ン
/etc/multipath.confファイルは、以下のセクションで構成されていま
す。属性とそれらのオプションに関する詳しいコメントの付いたテンプレー
トについては、/usr/share/doc/packages/multipath-tools/
multipath.conf.annotatedを参照してください。
defaults
マルチパスI/0の全般的デフォルト設定。詳細については、7.7項 「ポーリ
ング、待ち行列、およびフェールバック用のデフォルトポリシーの設
定」 (128 ページ)を参照してください。
デバイスのマルチパスI/Oの管理
123
blacklist
マルチパスの候補ではないとして破棄するデバイス名の一覧。デバイス
は、そのデバイスノード名(devnode)、そのWWID (wwid)、またはその
ベンダまたは製品文字列(device)によって識別できます。詳細について
は、7.8項 「非マルチパスデバイスのブラックリスト化」 (129 ページ)を参
照してください。
blacklist_exceptions
ブラックリストに記載されている場合でもマルチパスの候補として扱うデ
バイスのデバイス名の一覧。デバイスは、そのデバイスノード名
(devnode)、そのWWID (wwid)、またはそのベンダまたは製品文字列
(device)によって識別できます。対象のデバイスを指定するには、ブラッ
クリストで使用したのと同じキーワードを使用する必要があります。たと
えば、ブラックリスト内のデバイスにdevnodeキーワードを使用している
場合は、devnodeキーワードを使用して、ブラックリスト例外にあるデバ
イスの一部を除外します。
devices
個々のストレージコントローラの設定を指定します。これらの値により、
設定ファイル内のdefaultsセクションで指定された値が上書きされま
す。デフォルトではサポートされていないストレージアレイを使用してい
る場合は、devicesサブセクションを作成して、そのデフォルト設定を
指定することができます。これらの値は、個々のマルチパスデバイスの設
定により上書きが可能です(キーワードでそれが許可されていれば)。
詳細については、次のリンクを参照してください。
• 7.9項 「ユーザフレンドリ名または別名の設定」
(130 ページ)
• 7.10項 「zSeriesデバイスのデフォルト設定の設定」 (135 ページ)
multipaths
個々のマルチパスデバイスの設定を指定します。個別設定をサポートして
いない設定を除き、これらの値により、設定ファイルのdefaultsおよび
devicesセクションで指定された値が上書きされます。
124
ストレージ管理ガイド
7.6.3 etc/multipath.confファイルでのマルチ
パスセットアップの確認
/etc/multipath.confファイルの作成または修正を行った場合、ファイル
を保存する際に変更が自動的には適用されません。セットアップの「ドライ
実行」を行って、マルチパスのマップを更新する前に、マルチパスセットアッ
プを確認することができます。
サーバのコマンドプロンプトで、次のように入力します。
multipath -v2 -d
このコマンドによりデバイスがスキャンされ、変更をコミットしたときにセッ
トアップがどのようになるかが表示されます。/etc/multipath.confファ
イルを修正してドライ実行を行う際に、変更前の(またはデフォルトの)マルチ
パス設定で、multipathdデーモンがすでに実行されていることを前提とし
ます。変更内容に問題がなければ、7.6.4項 「/etc/multipath.confファイルの変
更を適用したマルチパスマップの更新」 (127 ページ)に進みます。
出力の例を以下に示します。
26353900f02796769
[size=127 GB]
[features="0"]
[hwhandler="1
emc"]
\_ round-robin 0 [first]
\_ 1:0:1:2 sdav 66:240
\_ 0:0:1:2 sdr 65:16
[ready ]
[ready ]
\_ round-robin 0
\_ 1:0:0:2 sdag 66:0
\_ 0:0:0:2 sdc
8:32
[ready ]
[ready ]
パスは、優先度グループでグループ化されます。一度に1つの優先度グループ
だけがアクティブに使用されます。アクティブ/アクティブ構成をモデル化す
るには、すべてのパスを同じグループにします。アクティブ/パッシブ構成を
モデル化する場合は、並行してアクティブにしないパスを複数の別の優先度
グループに振り分けます。これは、通常、デバイス検出時に自動的に行われ
ます。
デバイスのマルチパスI/Oの管理
125
出力として、順序、グループ内でのI/O負荷の分散に使用されるスケジュール
ポリシー、および各優先度グループのパスが表示されます。また、各パスに
対して、その物理アドレス(ホスト:バス:ターゲット:LUN)、デバイスノード
名、メジャー:マイナー番号、および状態が表示されます。
ドライ実行で冗長レベルの-v3を使用することによって、すべての検出された
パス、マルチパス、およびデバイスマップを表示できます。WWIDおよびデ
バイスノードの両方でブラックリスト化されたデバイスが表示されます。
multipath -v3 d
2つのQlogic HBAをXiotech Magnitude 3000 SANに接続した64ビットSLESサー
バでの-v3出力の例を、次に示します。例を短くするため、複数エントリの一
部は省略されています。
dm-22: device node name blacklisted
< content omitted >
loop7: device node name blacklisted
< content omitted >
md0: device node name blacklisted
< content omitted >
dm-0: device node name blacklisted
sdf: not found in pathvec
sdf: mask = 0x1f
sdf: dev_t = 8:80
sdf: size = 105005056
sdf: subsystem = scsi
sdf: vendor = XIOtech
sdf: product = Magnitude 3D
sdf: rev = 3.00
sdf: h:b:t:l = 1:0:0:2
sdf: tgt_node_name = 0x202100d0b2028da
sdf: serial = 000028DA0014
sdf: getuid = /lib/udev/scsi_id -g -u -s /block/%n (config file default)
sdf: uid = 200d0b2da28001400 (callout)
sdf: prio = const (config file default)
sdf: const prio = 1
< content omitted >
ram15: device node name blacklisted
< content omitted >
===== paths list =====
uuid
hcil
dev dev_t pri dm_st chk_st vend/prod/rev
200d0b2da28001400 1:0:0:2 sdf 8:80 1
[undef][undef] XIOtech,Magnitude
200d0b2da28005400 1:0:0:1 sde 8:64 1
[undef][undef] XIOtech,Magnitude
200d0b2da28004d00 1:0:0:0 sdd 8:48 1
[undef][undef] XIOtech,Magnitude
200d0b2da28001400 0:0:0:2 sdc 8:32 1
[undef][undef] XIOtech,Magnitude
200d0b2da28005400 0:0:0:1 sdb 8:16 1
[undef][undef] XIOtech,Magnitude
200d0b2da28004d00 0:0:0:0 sda 8:0
1
[undef][undef] XIOtech,Magnitude
126
ストレージ管理ガイド
3D
3D
3D
3D
3D
3D
params = 0 0 2 1 round-robin 0 1 1 8:80 1000 round-robin 0 1 1 8:32 1000
status = 2 0 0 0 2 1 A 0 1 0 8:80 A 0 E 0 1 0 8:32 A 0
sdf: mask = 0x4
sdf: path checker = directio (config file default)
directio: starting new request
directio: async io getevents returns 1 (errno=Success)
directio: io finished 4096/0
sdf: state = 2
< content omitted >
7.6.4 /etc/multipath.confファイルの変更を
適用したマルチパスマップの更新
/etc/multipath.confファイルに対する変更は、multipathdの実行中は
有効になりません。変更を行ったら、ファイルを保存して閉じ、次のように、
変更内容を適用してマルチパスマップを更新してください。
1 multipathdサービスを停止します。
2 次のコマンドの入力で、古いmultipathバインディングをクリアします。
/sbin/multipath -F
3 次のコマンドの入力で、新しいmultipathバインディングを作成します。
/sbin/multipath -v2 -l
4 multipathdサービスを開始します。
5 mkinitrdを実行して、システム上にINITRDを再作成し、再起動して変更
内容を有効にします。
デバイスのマルチパスI/Oの管理
127
7.7 ポーリング、待ち行列、および
フェールバック用のデフォルトポ
リシーの設定
マルチパスI/Oの最終目標は、ストレージシステムとサーバ間のコネクティビ
ティ耐障害性を提供することです。望ましいデフォルトの動作は、サーバが
スタンダロンのサーバか、高可用性クラスタ内のノードかにより、異なりま
す。
スタンダロンのサーバに対してマルチパスI/Oを構成する際は、no_path_retry
の設定により、サーバのオペレーティングシステムを、I/Oエラーの受信から
可能な限り保護することができます。この設定により、メッセージはマルチ
パスのフェールオーバーが発生するまで待ち行列に入れられ、正常な接続が
保たれます。
高可用性クラスタ内のノードに対してマルチパスI/Oを構成する際は、マルチ
パスI/Oに障害が発生した場合に、マルチパスのフェールオーバーが解決され
るのを待つのではなく、リソースのフェールオーバーをトリガするために、
マルチパスが報告を行うようにしたいと考えます。クラスタ環境では、
no_path_retry設定を、ストレージシステムへの接続が失われた場合に、クラス
タノードがクラスタ検証プロセスに関連するI/Oエラー(ハートビート許容値の
50%を推奨)を受信するように変更する必要があります。また、パスの障害に
よるリソースのピンポンを避けるため、マルチパスI/Oのフェールバックは、
マニュアルに設定した方がよいでしょう。
/etc/multipath.confファイルには、ポーリング、待ち行列、およびフェー
ルバックのデフォルト動作を指定できるdefaultsセクションが含まれてい
ます。deviceセクションで、フィールドが別途指定されていない場合は、そ
のSAN構成にデフォルト設定が適用されます。
デフォルト設定では、以下のようにコンパイルされています。パーソナライ
ズした/etc/multipath.confファイルを作成して構成することでこれらの
値を上書きしない限り、この設定が使用されます。
defaults {
udev_dir
polling_interval
path_selector
128
ストレージ管理ガイド
/dev
5
"round-robin 0"
path_grouping_policy
getuid_callout
prio
prio_args
path_checker
rr_min_io_rq
rr_weight
failback
no_path_retry
user_friendly_names
}
failover
"/lib/udev/scsi_id --whitelisted --device=/dev/%n"
const
""
directio
1
uniform
manual
fail
no
ポーリング、待ち行列、およびフェールバックの詳細については、7.11項 「パ
スフェールオーバーのポリシーと優先度の設定」 (136 ページ)に記載のパラ
メータを参照してください。
• 「polling_interval」
• 「no_path_retry」
(147 ページ)
(144 ページ)
• 「failback (フェールバック)」
(142 ページ)
defaultsセクションで設定を変更した場合、その変更内容は、マルチパス
マップを更新するまで、またはmultipathdデーモンを再起動するまで(システム
の再起動など)適用されません。
7.8 非マルチパスデバイスのブラック
リスト化
/etc/multipath.confファイルには、blacklistセクションがあり、こ
のセクションにすべての非マルチパスデバイスがリストされます。たとえば、
ローカルのIDEハードドライブやフロッピードライブには通常、複数のパスは
ありません。multipathが管理対象とするシングルパスデバイスがあり、
multipathにそれらを無視させたい場合は、それらのシングルパスデバイス
をblacklistセクションに入力して、問題を解決します。
注記
キーワードdevnode_blacklistは廃止され、キーワードblacklistに代わりまし
た。
デバイスのマルチパスI/Oの管理
129
たとえば、ccissドライバからローカルデバイスとすべてのアレイを、multipath
による管理から外してブラックリストに載せるには、blacklistセクション
を次のように指定します。
blacklist {
wwid 26353900f02796769
devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st|sda)[0-9]*"
devnode "^hd[a-z][0-9]*"
devnode "^cciss!c[0-9]d[0-9].*"
}
アレイ全体でなく、ドライバからのパーティションだけをブラックリスト化
することもできます。たとえば、次の正規表現を使用すると、アレイ全体で
はなく、ccissドライバからのパーティションだけがブラックリスト化されま
す。
^cciss!c[0-9]d[0-9]*[p[0-9]*]
/etc/multipath.confファイルの変更後、mkinitrdを実行してシステム
上にINITRDを作成し、次に、サーバを再起動して変更内容を有効にします。
その後は、multipath -llコマンドの発行時に、ローカルデバイスがマル
チパスマップに一覧されなくなります。
7.9 ユーザフレンドリ名または別名の
設定
マルチパスデバイスは、そのWWID、ユーザフレンドリな名前、またはそれ
に割り当てた別名で識別されます。始める前に、「7.2.3項 「マルチパスデバ
イスでのWWID、ユーザフレンドリ名、および別名の使用」 (96 ページ)」の
要件をレビューしてください。
重要
/dev/sdnおよび/dev/dm-n形式のデバイスノード名は、再起動時に変更
される可能性があるので、マルチパスデバイスは、そのWWIDで参照するこ
とを推奨します。また、WWIDにマップされたユーザフレンドリ名または別
130
ストレージ管理ガイド
名を、再起動時においてもデバイスを一意に識別するために使用すること
もできます。
表7.4「マルチパスデバイス名のタイプの比較」 (131 ページ)では、 /etc/
multipath.confファイル内のデバイスに使用できるデバイス名のタイプに
ついて説明しています。multipath.conf設定の例については、/usr/
share/doc/packages/multipath-tools/multipath.conf.synthetic
ファイルを参照してください。
表 7.4 マルチパスデバイス名のタイプの比較
名前の
タイプ
説明
WWID
(デフォ
ルト)
シリアルWWID (Worldwide Identifier)は、グローバルに固有
または非変更であることを保証されたマルチパスデバイスの
識別子です。マルチパス処理で使用されるデフォルト名
は、/dev/disk/by-idディレクトリにある論理ユニットの
IDです。たとえば、WWIDが
3600508e0000000009e6baa6f609e7908のデバイス
は、/dev/disk/by-id/scsi
-3600508e0000000009e6baa6f609e7908と記載されて
います。
ユーザ
フレン
ドリ
/dev/mapperディレクトリ内のデバイスマッパーマルチパ
スのデバイス名は、論理ユニットのIDも参照します。これら
のマルチパスデバイス名は、/dev/mapper/mpath<n>形式
を使用するユーザフレンドリな名前です(たとえば、/dev/
mapper/mpath0)。これらの名前は、/var/lib/
multipath/bindingsファイルを使用してUUIDとユーザ
フレンドリな名前の関連付けを追跡するので、固有かつ永続
的です。
別名
別名は、グローバルに固有な名前であり、管理者がマルチパ
スデバイスに提供します。別名は、WWIDとユーザフレンド
リな/dev/mapper/mpathN名に優先します。
デバイスのマルチパスI/Oの管理
131
名前の
タイプ
説明
user_friendly_nameを使用している場合は、別名をmpathN形
式に設定しないでください。mpathN形式にすると、自動的
に割り当てられたユーザフレンドリ名と競合し、デバイス
ノードが正しくなくなる可能性があります。
/etc/multipath.confファイルのグローバルマルチパスオプション
user_friendly_namesは、マルチパスデバイスのユーザフレンドリ名の使
用を有効または無効にするために使用されます。このオプションが「no」(デ
フォルト)に設定されている場合、マルチパスはデバイス名としてWWIDを使
用します。このオプションが「yes」に設定されている場合は、/var/lib/
multipath/bindingsファイルが使用されて、mpath<n>形式の永続的で固
有の名前が、/dev/mapperディレクトリ内でデバイスに割り当てられま
す。/etc/multipath.confファイルのbindings fileオプションを使用
すると、bindingsファイルに代替の場所を指定できます。
/etc/multipath.confファイルのグローバルマルチパスオプションalias
は、デバイスに名前を明示的に割り当てるために使用されます。別名がマル
チパスデバイスに設定されている場合は、WWIDまたはユーザフレンドリ名
の代わりにその別名が使用されます。
user_friendly_namesオプションの使用は、以下の状況では問題を引き起
こす可能性があります。
• ルートデバイスでマルチパスを使用している場合: システムルートデバイス
でマルチパスを使用中に、user_friendly_namesオプションを使用する
場合は、 option, the user-friendly settings in the /var/lib/multipath/
bindingsファイルのユーザフレンドリ設定がinitrdに組み込まれます。
デバイスの追加や削除などで、後でストレージのセットアップを変更した
場合は、initrd内のバインディング設定と/var/lib/multipath/
bindings内のバインディング設定に不一致が生じます。
132
ストレージ管理ガイド
警告
initrdと/var/lib/multipath/bindingsのバインディングが不一致
だと、デバイスに間違ったマウントポイントが割り当てられることがあ
り、その場合は、ファイルシステムが破損し、データが失われます。
この問題を回避するには、システムルートデバイスにデフォルトのWWID
設定を使用することを推奨します。システムのルートデバイスには、別名
を使用してはなりません。デバイス名が異なることがあるため、別名を使
用すると、カーネルのコマンドラインを通じてマルチパス処理をシームレ
スにスイッチオフすることができなくなります。
• 別のパーティションから/varをマウントする場合: user_friendly_names
設定ファイルのデフォルトの格納場所は、/var/lib/multipath/
bindingsです。/varデータがシステムルートデバイス上になく、このデー
タを別のパーティションからマウントする場合は、マルチパス処理のセッ
トアップ時にbindingsファイルを利用できません。
/var/lib/multipath/bindingsファイルをシステムルートデバイスで
使用し、マルチパスで検出できるようにしてください。これは、たとえば、
次の手順で実行できます。
1. /var/lib/multipath/bindingsファイルを/etc/multipath/
bindingsに移動します。
2. この新しい場所に、/etc/multipath.confのdefaultsセクションに
あるbindings_fileオプションを設定します。次に例を示します。
defaults {
user_friendly_names yes
bindings_file "/etc/multipath/bindings"
}
• マルチパスがinitrdに含まれている場合: システムルートデバイスがマルチ
パス上にない場合でも、マルチパスがinitrdに含まれることがあります。
これは、たとえば、システムルートデバイスがLVM上にある場合に起こり
ます。user_friendly_namesオプションを使用し、マルチパスがinitrd
内にある場合は、パラメータmultipath=offでブートして問題を回避して
ください。
デバイスのマルチパスI/Oの管理
133
これにより、システムブート中は、initrd内でのみマルチパスが無効にな
ります。システムブート後は、ブートスクリプトboot.multipathおよび
multipathdによって、マルチパス処理をアクティブにすることができま
す。
ユーザフレンドリな名前を有効にするか、別名を指定する場合:
1 端末コンソールで、rootユーザとしてログインします。
2 /etc/multipath.confファイルをテキストエディタで開きます。
3 (オプション)/var/lib/multipath/bindingsファイルの場所を変更し
ます。
代替パスは、マルチパスが代替パスを見つけることができるシステムルー
トデバイス上に存在する必要があります。
3a /var/lib/multipath/bindingsファイルを/etc/multipath/
bindingsに移動します。
3b この新しい場所に、/etc/multipath.confのdefaultsセクショ
ンにあるbindings_fileオプションを設定します。次に例を示し
ます。
defaults {
user_friendly_names yes
bindings_file "/etc/multipath/bindings"
}
4 (オプション、非推奨)ユーザフレンドリ名の有効にする:
4a defaultsセクションとその閉じ括弧を非コメント化します。
4b user_friendly_namesオプションを非コメント化し、次に、その
値をNoからYesに変更します。
次に例を示します。
## Use user friendly names, instead of using WWIDs as names.
defaults {
134
ストレージ管理ガイド
user_friendly_names yes
}
5 (オプション)aliasオプション(multipathセクションにある)を使用して、
独自のデバイス名を指定します。
次に例を示します。
## Use alias names, instead of using WWIDs as names.
multipaths {
multipath {
wwid
36006048000028350131253594d303030
alias
blue1
}
multipath {
wwid
36006048000028350131253594d303041
alias
blue2
}
multipath {
wwid
36006048000028350131253594d303145
alias
yellow1
}
multipath {
wwid
36006048000028350131253594d303334
alias
yellow2
}
}
6 変更内容を保存し、ファイルを閉じます。
変更内容は、マルチパスマップを更新するまで、またはmultipathdデーモン
の再起動時(システムの再起動時など)まで、適用されません。
7.10 zSeriesデバイスのデフォルト設定
の設定
IBM zSeriesデバイスをマルチパス処理でテストした結果、dev_loss_tmoパラ
メータを90秒に、fast_io_fail_tmoパラメータを5秒に設定する必要があること
わかりました。zSeriesデバイスをご使用の場合は、/etc/multipath.conf
ファイルを変更して、値を次のように指定します。
デバイスのマルチパスI/Oの管理
135
defaults {
dev_loss_tmo 90
fast_io_fail_tmo 5
}
dev_loss_tmoパラメータは、マルチパスリンクに不良のマーキングがされるま
での秒数を設定します。パスに障害が発生したら、そのパスの現在のI/Oが失
敗します。デフォルト値は使用するデバイスドライバによって異なります。0
~600秒の値の範囲が有効です。ドライバの内部タイムアウトを使用するに
は、ゼロ(0)または600より大きい値に設定します。
fast_io_fail_tmoパラメータは、リンク障害を検出した場合に、I/Oが失敗する
までの待機時間を設定します。ドライバに到達したI/Oは失敗します。ブロッ
クしたキューにI/Oがある場合は、I/Oはdev_loss_tmoで指定された時間が経過
するまでは失敗せず、キューのブロックが解除されます。
/etc/multipath.confファイルを変更した場合、その変更内容は、マルチ
パスマップを更新するまで、またはmultipathdデーモンを再起動するまで(シス
テムの再起動など)適用されません。
7.11 パスフェールオーバーのポリシー
と優先度の設定
Linuxホスト内で、ストレージコントローラへのパスが複数ある場合は、各パ
スが別個のブロックデバイスとして表示され、その結果、1つのLUNに複数の
ブロックデバイスが存在することになります。デバイスマッパーマルチパス
サービスは、同じLUN IDをもつ複数のパスワードを検出し、そのIDで新しい
マルチパスデバイスを作成します。たとえば、1つの非ゾーン化されたファイ
バチャネルのスイッチを介して2つのポートでストレージコントローラに接続
した2つのHBAをもつホストは、4つのブロックデバイスを認識します(/dev/
sda、/dev/sdb、/dev/sdc、/dev/sdd)。デバイスマッパーマルチパス
サービスは、1つのブロックデバイス/dev/mpath/mpath1を作成します。こ
のデバイスは、既に示した4つのブロックデバイスを介してI/Oを再経路指定
します。
このセクションでは、フェールオーバーのポリシーを指定し、パスの優先順
位を設定する方法について説明します。
136
ストレージ管理ガイド
• 7.11.1項 「パスのフェールオーバーポリシーの設定」 (137 ページ)
• 7.11.2項 「フェールオーバーポリシーの設定」 (138 ページ)
• 7.11.3項 「スクリプトの使用によるパス優先度の設定」 (152 ページ)
• 7.11.4項 「ALUAの設定 (mpath_prio_alua)」
(153 ページ)
• 7.11.5項 「ターゲットパスグループの報告」 (156 ページ)
7.11.1 パスのフェールオーバーポリシーの設
定
multipathコマンドを-pオプション付きで使用して、パスフェールオーバー
ポリシーを設定します。
multipath devicename -p policy
次のポリシーオプションの1つで、policyを置き換えます。
表 7.5 multipath -pコマンドのグループポリシーオプション
ポリシーオプ
ション
説明
failover
(フェールオー
バー)
優先度グループごとに1つのパス
multibus
1つの優先度グループ内にすべてのパス
group_by_serial
検出されたシリアル番号ごとに1つの優先度グループ
group_by_prio
パス優先度値ごとに1つの優先度グループ優先度は、
コールアウトプログラムで決定されます。それらのプ
ログラムは、グローバル、コントローラごと、または
マルチパスごとのオプションとして/etc/multipath
.conf環境設定ファイルで指定されます。
デバイスのマルチパスI/Oの管理
137
ポリシーオプ
ション
説明
group_by_node_name
ターゲットノード名ごとに1つの優先度グループター
ゲットノード 名は、/sys/class/fc_transport/
target*/node_nameにフェッチされます。
7.11.2 フェールオーバーポリシーの設定
デバイスのフェールオーバーポリシーは、手動で、/etc/multipath.conf
ファイルに入力する必要があります。すべての設定とオプションの例
は、/usr/share/doc/packages/multipath-tools/multipath.conf
.annotatedファイルにあります。
/etc/multipath.confファイルを修正した場合、ファイルを保存する際に
変更が自動的には適用されません。詳細については、7.6.3項 「etc/multipath.conf
ファイルでのマルチパスセットアップの確認」 (125 ページ)および7.6.4項
「/etc/multipath.confファイルの変更を適用したマルチパスマップの更
新」 (127 ページ)を参照してください。
• 7.11.2.1項 「優先度グループと属性の理解」
(138 ページ)
• 7.11.2.2項 「ラウンドロビン式負荷分散の設定」
(151 ページ)
• 7.11.2.3項 「単一パスフェールオーバーの設定」
(151 ページ)
• 7.11.2.4項 「ラウンドロビン式負荷分散用I/Oパスのグループ化」 (152 ページ)
7.11.2.1 優先度グループと属性の理解
優先度グループは、同じ物理LUNに属するパスのコレクションです。デフォ
ルトでは、I/Oは、グループ内のすべてのパス全体にラウンドロビン方式で配
分されます。multipathコマンドは、SANのpath_grouping_policy設定に基づ
いてそのSANの各LUNごとに、自動的に優先度グループを作成します。
multipathコマンドは、グループ内のパス数にグループの優先度を掛け合わ
せて、どのグループがプライマリか決定します。計算された値が最も高いグ
138
ストレージ管理ガイド
ループがプライマリグループです。プライマリグループ内のすべてのパスが
失敗すると、次に値の高い優先度グループがアクティブになります。
パス優先度は、パスに割り当てられた整数値です。優先度は、値が高いほど
高くなります。パスごとに優先度を割り当てるには、外部プログラムが使用
されます。所定のデバイスに関して、同じ優先度のパスが同じ優先度グルー
プに属します。
SLES 11 SP2用マルチパスツール 2以降では、/etc/multipath.confファイ
ルのdefaults{}またはdevices{}セクションのprio設定を使用します。
キーワードprioが、multipath{)セクションの個別のmultipaths定義に
指定された場合は、暗黙のうちに無視されます。SLES 11 SP1用のマルチパス
ツール0.4.8以前では、multipath{)セクションの個別のmultipaths定義内
のprio設定で、defaults{}またはdevices{}セクションのprio設定を上書
きすることができました。
/etc/multipath.confファイル内のprioキーワードが、multipath-tools
-0.4.9では変更されています。prio行で、Prioritizerが指定されます。
Prioritizerが引数を必要とする場合、その引数は2行目のprio_argsキーワー
ドで指定します。これまでは、Prioritizerとその引数は、prio行に含まれてい
ました。
デフォルトセクションまたはデバイスセクションのprio設定
prio
パス優先度の値を取得するために呼び出すPrioritizerプログラムを指定しま
す。加重は、障害の発生時に使用する次のパスグループを決定するため、
それぞれのパスグループに対して合計されます。
指定したPrioritizerで引数が必要な場合は、prio_argsキーワードを使用
して、引数を指定します。
値
prio_キーワードを指定しない場合は、すべてのパスが同等になりますデ
フォルトの設定は「const」で、prio_argsの設定には値がありません。
prio const
prio_args ""
デバイスのマルチパスI/Oの管理
139
Prioritizerのプログラム例には、以下のものがあります。
Prioritizerプログ
ラム
説明
alua
SCSI-3 ALUA設定に基づいてパス優先度を生成
します。
const
すべてのパスに同じ優先度を生成します。
emc
EMCアレイのパス優先度を生成します。
hdc
Hitachi HDS Modularストレージアレイのパス優
先度を生成します。
hp_sw
アクティブ/スタンバイモードのCompaq/HPコン
トローラのパス優先度を生成します。
ontap
NetAppアレイのパス優先度を生成します。
random
パスごとにランダムな優先度を生成します。
rdac
LSI/Engenio RDACコントローラのパスの優先度
を生成します。
weightedpath
prio_argsに対する引数内で指定した加重値に
基づいて、パス優先度を生成します。たとえば
<hbtl|devname> <regex1> <prio1> <regex2>
<prio2>...
hbtl regexの引数形式では、SCSI H:B:T:L表
記法(1:0:.:. および*:0:0:.など)を、加重値
とともに使用します。ここで、H、B、T、Lはそ
れぞれ、デバイスのホスト、バス、ターゲット、
およびLUN IDを示します。たとえば、
prio "weightedpath"
prio_args "hbtl 1:.:.:. 2 4:.:.:. 4"
140
ストレージ管理ガイド
Prioritizerプログ
ラム
説明
devname regexの引数形式では、デバイスノード
名を、各ノードに対する加重値とともに使用し
ます。たとえば、
prio "weightedpath"
prio_args "devname sda 50 sde 10 sdc 50 sdf 10"
prio_args
引数を必要とする指定したPrioritizerプログラムに対する引数を指定しま
す。ほとんどのprioプログラムでは、引数は不要です。
値
デフォルト値はありません。値は、prioの設定と、Prioritizerが引数を必
要とするかどうかによります。
prio const
prio_args ""
デバイスに対するマルチパスI/Oの動作を制御するには、マルチパス属性を使
用します。すべてのマルチパスデバイスに対して、デフォルトとして属性を
指定できます。また、あるマルチパスデバイスにのみ適用する属性を、その
デバイス用のエントリを、マルチパス設定ファイルのmultipathsセクショ
ンで作成することで、指定することもできます。
マルチパス属性
user_friendly_names
WWID(world-wide ID)を使用するか、または/var/lib/multipath/
bindingsファイルを使用して永続的で固有な別名を/dev/mapper/
mpathN形式のマルチパスデバイスに割り当てるか指定します。
値
デバイスのマルチパスI/Oの管理
141
値
説明
no
(デフォルト) /dev/disk/by-id/に示された
WWIDを使用します。
yes
実際のIDの代わりに、マルチパスデバイスのエイ
リアスとして、ユーザフレンドリな名前を自動生
成します。
blacklist
非マルチパスデバイスとして無視するデバイス名のリスト(cciss、fd、
hd、md、dm、sr、scd、st、ram、raw、loopなど)を指定します。
値
例については、7.8項 「非マルチパスデバイスのブラックリスト
化」 (129 ページ)を参照してください。
blacklist_exceptions
ブラックリストに含まれている場合でも、マルチパスデバイスとして扱う
デバイス名のリストを指定します。
ブラックリストの例外は、同一のクラス内のみで有効です。devnodeキー
ワードを使用し、それらの一部のデバイスをwwidキーワードを使用して
除外することで、デバイスをブラックリストに入れることはできません。
値
例として、/usr/share/doc/packages/multipath-tools/
multipath.conf.annotatedファイルを参照してください。
failback (フェールバック)
エラーになったパスの回復を監視するかどうか指定し、パスサービス回復
後のグループのフェールバックのタイミングを示します。
エラーになったパスは、回復すると、この設定に基づいてマルチパス対応
パスのリストに戻されます。multipathは、優先度グループを評価し、プラ
イマリパスの優先度がセカンダリパスのそれを超えると、アクティブな優
先度グループを変更します。
142
ストレージ管理ガイド
値
値
説明
manual
デフォルト。エラーになったパスの回復は監視さ
れません。管理者がmultipathコマンドを実行し
て、有効なパスと優先度グループを更新します。
immediate
パスが回復したら、ただちにパスを有効にします。
n
パスが回復したら、n秒後にパスを有効にします。
0より大きい整数値を指定してください。
クラスタ環境内のマルチパスに対するフェールバックの設定は、マルチパ
スのフェールオーバーのピンポンを避けるため、「manual」にすることを
推奨します。
failback "manual"
重要
フェールバックの設定については、ストレージシステムのベンダに確認
するようにしてください。ストレージシステムが異なれば、必要な設定
も異なります。
getuid
固有のパス識別子を取得するためのコールのデフォルトプログラムと引数
を指定します。場所を、絶対Linuxパスで指定します。
getuid_callout属性は廃止され、今はgetuid属性となっています。
値
デフォルトの場所と引数は、
/lib/udev/scsi_id -g -u -s
例:
デバイスのマルチパスI/Oの管理
143
getuid "/lib/udev/scsi_id -g -u -d /dev/%n"
no_path_retry
パスの障害時に使用する動作を指定します。
値
値
説明
n
multipathコマンドで待ち行列が停止し、パスが
エラーになるまでの再試行数を指定します。0より
大きい整数値を指定してください。
クラスタでは、「0」を指定して、待ち行列を回避
し、リソースのフェールオーバーを許可すること
ができます。
fail
即時失敗(待ち行列なし)を指定します。
queue
待ち行列を停止しません(パスが復帰するまで永久
に待機します)。
クラスタでの作業では、/etc/multipath.confファイルの再試行設定
を、「fail」または「0」にすることを推奨します。これにより、ストレー
ジへの接続が失われた場合に、リソースのフェールオーバーが起こりま
す。そうしないと、メッセージの待ち行列とリソースのフェールオーバー
が行えません。
no_path_retry "fail"
no_path_retry "0"
重要
再試行設定については、ストレージシステムのベンダに確認するように
してください。ストレージシステムが異なれば、必要な設定も異なりま
す。
path_checker
パスの状態を判別します。
144
ストレージ管理ガイド
値
値
説明
directio
(multipath-toolsバージョン0.4.8以降でのデ
フォルト)。直接I/Oをもつ最初のセクタを読み込
みます。DASDデバイスの場合、有用です。/var/
log/messagesに障害メッセージをログ記録しま
す。
readsector0
(multipath-tools version 0.4.7以前でのデフォ
ルト)。デバイスの最初のセクタを読み込みま
す。/var/log/messagesに障害メッセージをロ
グ記録します。
tur
デバイスに対するSCSIテストユニットレディコマ
ンドを発行します。これはLUNによってサポート
されている場合の推奨設定です。このコマンドは、
障害時に、/var/log/messagesにメッセージを
出力しません。
custom_vendor_value
一部のSANベンダは、カスタムオプションとして
path_checkerを提供しています。
• cciss_tur: HP Smart Storage Arrayへのパスの状態
をチェックします。
• emc_clariion: EMC ClariionのEVPDページ0xC0
をクエリしてパスの状態を判別します。
• hp_sw: Active/StandbyファームウェアをもつHP
ストレージアレイのパスの状態(アップ、ダウ
ン、またはゴースト)をチェックします。
• rdac: LSI/Engenio RDACストレージコントロー
ラのパスmp状態をチェックします。
デバイスのマルチパスI/Oの管理
145
path_grouping_policy
所定のコントローラがホストとなるマルチパスデバイスのパスグループ化
ポリシーを指定します。
値
値
説明
failover (フェー
ルオーバー)
(デフォルト)一度に1つのパスだけ使用されるよう
に、優先度グループごとに1つのパスが割り当てら
れます。
multibus
すべての有効なパスが1つの優先度グループに含ま
れます。トラフィックが、グループ内のアクティ
ブなパスすべてに渡って負荷分散されます。
group_by_prio
パス優先度値ごとに、1つの優先度グループが存在
します。同じ優先度のパスは同じ優先度グループ
に属します。優先度は外部プログラムによって割
り当てられます。
group_by_serial
パスがSCSIターゲットシリアル番号(コントローラ
ノードのWWN)でグループ化されます。
group_by_node_name
ターゲットノード名ごとに1つの優先度グループが
割り当てられます。ターゲットノード名は/sys/
class/fc_transport/target*/node_name
にフェッチされます。
path_selector
負荷分散に使用するパスセレクタアルゴリズムを指定します。
値
146
ストレージ管理ガイド
値
説明
round-robin 0
優先度グループ内のすべてのアクティブパスに渡
るトラフィックの分散に使用される負荷分散アル
ゴリズム(デフォルト)
least-pending 0
BIO (ブロックI/O)ベースのデバイスマッパーマル
チパスに対して、least-pending-I/O動的負荷分散ポ
リシーを提供します。この負荷分散ポリシーでは、
パス上で保留になっている未処理のサービス要求
数を考慮し、保留のサービス要求が最も少ないパ
スを選択します。
このポリシーは、SAN環境に異機種混合コンポー
ネントがある場合には特に有効です。たとえば、
1台の8GB HBAと1台の2GB HBAが同じサーバに接
続されている場合、このアルゴリズムを使用する
ことで、8GB HBAを有効活用できます。
queue-length 0
least-pendingオプションと同様に、パス上で実行中
のI/Oの数に基づく、動的負荷分散装置。
service-time 0
遅延に従って、パス上のI/Oを調整するサービス時
間に基づく負荷分散装置。
pg_timeout
パスグループのタイムアウト処理を指定します。
値
なし(内部デフォルト)
polling_interval
1つのパスチェックサイクルの終了から次回のパスチェックサイクルの開
始までの時間を、秒単位で指定します。
値
0より大きい整数値を指定してください。デフォルト値は5です。
polling_intervalの設定については、ストレージシステムのベンダに確認す
デバイスのマルチパスI/Oの管理
147
るようにしてください。ストレージシステムが異なれば、必要な設定も異
なります。
prio_callout
マルチパスマップのレイアウトを決定するプログラムと引数を指定しま
す。
マルチパスのprio_calloutsプログラムは、/lib/libmultipath/lib*内
の共有ライブラリ内にあります。共有ライブラリを使用することで、デー
モンの起動時、コールアウトプログラムがメモリにロードされます。
multipathコマンドでクエリされると、指定のmpath_prio_*コールアウト
プログラムがマルチパスレイアウト全体との関係で所定のパスの優先度を
返します。
この属性がgroup_by_prioのpath_grouping_policyとともに使用されると、同
じ優先度をもつすべてのパスが1つのマルチパスグループにグループ化さ
れます。総計の優先度が最も高いグループがアクティブグループになりま
す。
グループ内のすべてのパスが失敗すると、総計の優先度が次に高いグルー
プがアクティブになります。さらに、フェールオーバーコマンド(ハード
ウェアハンドラにより決定)がターゲットに送信されることもあります。
mpath_prio_*プログラムとして、指定のセットアップ用にベンダまたは管
理者が作成したカスタムスクリプトを使用することも可能です。
• コマンドライン内の%nは、/devディレクトリ内のデバイス名に展
開します。
• コマンドライン内の%bは、/devディレクトリ内のmajor:minor
形式のデバイス番号に展開します。
• コマンドライン内の%dは、/dev/disk/by-idディレクトリ内の
デバイスIDに展開します。
デバイスがホットプラグ可能な場合は、%nの代わりに%dフラグを使用し
てください。これにより、デバイスが利用可能になった時点とudevがデ
バイスノード を作成した時点の間に短い時間間隔があるという問題が解
決されます。
148
ストレージ管理ガイド
値
値
説明
(値なし)
prio_callout属性を使用しない場合は、すべて
のパスが同等になりますこれがデフォルトの設定
です。
/bin/true
group_by_prioを使用しない場合は、これを指定し
ます。
prioritizerプログラムは、multipathコマンドによってクエリされる
と、パス優先度を生成します。プログラム名は、mpath_prio_で開始
し、後に使用するデバイスタイプまたは負荷分散の方法が続きます。現在
の優先度プログラムには、次のものがあります。
Prioritizerプログラム
説明
mpath_prio_alua %n
SCSI-3 ALUA設定に基づいてパス優先度を
生成します。
mpath_prio_balance_units
すべてのパスに同じ優先度を生成します。
mpath_prio_emc %n
EMCアレイのパス優先度を生成します。
mpath_prio_hds_modular
%b
Hitachi HDS Modularストレージアレイのパ
ス優先度を生成します。
mpath_prio_hp_sw %n
アクティブ/スタンバイモードのCompaq/HP
コントローラのパス優先度を生成します。
mpath_prio_netapp %n
NetAppアレイのパス優先度を生成します。
mpath_prio_random %n
パスごとにランダムな優先度を生成します。
mpath_prio_rdac %n
LSI/Engenio RDACコントローラのパスの優
先度を生成します。
デバイスのマルチパスI/Oの管理
149
Prioritizerプログラム
説明
mpath_prio_tpc %n
オプションとして、ベンダまたは管理者が
作成したスクリプトを使用できます。この
スクリプトは、各パスの優先度を指定する
ファイルから優先度を取得します。
mpath_prio_spec.sh %n
ユーザ作成スクリプトのパスを提供します。
このスクリプトにより、2つ目のデータファ
イルに含まれた情報に基づくマルチパス処
理の優先度が生成されます。(このパスと
ファイル名は、例として提供されています。
ご使用のスクリプトの場所を指定してくだ
さい)。このスクリプトは、ベンダまたは管
理者が作成できます。スクリプトのターゲッ
トファイルは、すべてのマルチパスデバイ
スの各パスを識別し、パスごとに優先度を
指定します。例については、7.11.3項 「ス
クリプトの使用によるパス優先度の設
定」 (152 ページ)を参照してください。
rr_min_io
path_selector設定の指定のアルゴリズムで決定される同じパスグルー
プ内の次のパスに切り替わる前に、パスに経路指定されるI/Oトランザク
ションの数を指定します。
rr_min_io属性は、カーネル2.6.31以前でのみ使用します。SLES 11 SP2では
廃止となり、rr_min_io_rq属性にとって代わられました。
値
0より大きい整数値を指定してください。デフォルト値は「1000」です。
rr_min_io "1000"
rr_min_io_rq
現在のパスグループ内の次のパスに切り替える前に、リクエストベースの
デバイス-マッパー-マルチパスを使用して、あるパスへルートするI/Oリク
エストの回数を指定します。
150
ストレージ管理ガイド
この属性は、SLES 11 SP2以降を実行しているシステムで利用できます。
rr_min_io属性に代わるものです。
値
0より大きい整数値を指定してください。デフォルト値は「1」です。
rr_min_io_rq "1"
rr_weight
パスの重み付けの方法を指定します。
値
値
説明
uniform
(デフォルト)すべてのパスが同じラウンドロビン
方式の重み付けを持ちます。
priorities
各パスの重み付けが、rr_min_io_rqの設定(または
カーネル2.6.31以降ではrr_min_io設定)によって決
まります。
7.11.2.2 ラウンドロビン式負荷分散の設定
すべてのパスがアクティブです。一定の秒数または一定数のI/Oトランザク
ションの後で、シーケンスの次のオープンパスに移動するように、I/Oを設定
します。
7.11.2.3 単一パスフェールオーバーの設定
優先度が最も高い(最も低い値の)単一パスがトランザクションに対してアク
ティブになります。他のパスは、フェールオーバーに使用できますが、フェー
ルオーバーの発生までは使用されません。
デバイスのマルチパスI/Oの管理
151
7.11.2.4 ラウンドロビン式負荷分散用I/Oパスのグルー
プ化
同じ優先度をもつ複数のパスがアクティブグループを形成します。そのグルー
プのすべてのパスがエラーになると、デバイスが優先度の次に高いグループ
にフェールオーバーします。グループのすべてのパスが、ラウンドロビン方
式の負荷分散で、トラフィックロードを共有します。
7.11.3 スクリプトの使用によるパス優先度の
設定
デバイスマッパーマルチパス(DM-MPIO)と対話することにより、
prio_callout設定のリソースとしての設定時にLUNへのパスの優先度を提
供するスクリプトを作成できます。
まず、各デバイスの情報と各パスに割り当てたい優先度値をリストするテキ
ストファイルを設定します。たとえば、ファイルを/usr/local/etc/
primary-pathsと指定します。次の形式で、パスごとに1行入力します。
host_wwpn target_wwpn scsi_id priority_value
デバイス上の各パスの優先度を返します。変数FILE_PRIMARY_PATHSが各
デバイスの適切なデータ(host wwpn、target wwpn、scsi_id、priority value)を含
む実際のファイルに解決するようにします。
1つのLUNに8つのパスが対応する場合、primary-pathsファイルの内容が、
次のようになることがあります。
0x10000000c95ebeb4 0x200200a0b8122c6e 2:0:0:0 sdb
3600a0b8000122c6d00000000453174fc 50
0x10000000c95ebeb4 0x200200a0b8122c6e 2:0:0:1 sdc
3600a0b80000fd6320000000045317563 2
0x10000000c95ebeb4 0x200200a0b8122c6e 2:0:0:2 sdd
3600a0b8000122c6d0000000345317524 50
152
ストレージ管理ガイド
0x10000000c95ebeb4 0x200200a0b8122c6e 2:0:0:3 sde
3600a0b80000fd6320000000245317593 2
0x10000000c95ebeb4 0x200300a0b8122c6e 2:0:1:0 sdi
3600a0b8000122c6d00000000453174fc 5
0x10000000c95ebeb4 0x200300a0b8122c6e 2:0:1:1 sdj
3600a0b80000fd6320000000045317563 51
0x10000000c95ebeb4 0x200300a0b8122c6e 2:0:1:2 sdk
3600a0b8000122c6d0000000345317524 5
0x10000000c95ebeb4 0x200300a0b8122c6e 2:0:1:3 sdl
3600a0b80000fd6320000000245317593 51
「prio_callout」 (148 ページ)に示された例を続行するには、/usr/local/
sbin/path_prio.shという名前のスクリプトを作成します。パスとファイ
ル名は任意に指定できます。スクリプトは、次の処理を実行します。
• multipathからのクエリ時に、/usr/local/etc/primary-pathsファイル
からデバイスとそのパスをグレップ検索します。
• multipathに戻り、ファイル内のそのエントリの最後のカラムにある優先度値
を使用します。
7.11.4 ALUAの設定 (mpath_prio_alua)
mpath_prio_alua(8)コマンドは、Linux multipath(8)コマンドの優先度
コールアウトとして使用されます。このコマンドが返す番号をDM-MPIOが使
用して、同じ優先度をもつSCSIデバイスをグループ化します。このパス優先
度ツールは、ALUA (Asynchronous Logical Unit Access)をベースとしています。
• 7.11.4.1項 「構文」
(154 ページ)
• 7.11.4.2項 「必要条件」
(154 ページ)
• 7.11.4.3項 「オプション」
• 7.11.4.4項 「戻り値」
(154 ページ)
(155 ページ)
デバイスのマルチパスI/Oの管理
153
7.11.4.1 構文
mpath_prio_alua [-d directory] [-h] [-v] [-V] device [device...]
7.11.4.2 必要条件
SCSIデバイス.
7.11.4.3 オプション
-dディレクトリ
デバイスノード名の一覧を見つけることのできるLinuxディレクトリパス
を指定します。デフォルトディレクトリは、/devです。このオプション
を使用する際には、管理するデバイスのデバイスノード名(sdaなど)だけ
を指定します。
-h
このコマンドのヘルプを表示して、終了します。
-v
詳細出力をオンにして、読みやすい形式でステータスを表示します。指定
のデバッガーが属するポートグループやその現在の状態に関する情報が表
示されます。
-V
このツールのバージョン情報を表示して、終了します。
device [device...]
管理するSCSIデバイス(または複数のデバイス)を指定します。ターゲット
ポートグループの報告コマンド(sg_rtpg(8))をサポートするSCSIデバイ
スを指定してください。デバイスノード名には、次の形式の1つを使用し
ます。
• 完全なLinuxディレクトリパス(/dev/sdaなど)-dオプションとは併
用しないでください。
• デバイスノード名のみ(sdaなど)。-dオプションの使用で、ディレ
クトリパスを指定します。
154
ストレージ管理ガイド
• スペース無しでコロンで区切ったデバイスのメジャーおよびマイ
ナー番号(8:0など)この形式を使用すると、/devディレクトリに、
tmpdev-<major>:<minor>-<pid>形式の名前で、一時デバイス
ノードが作成されます。(たとえば、/dev/tmpdev-8:0-<pid>)。
7.11.4.4 戻り値
成功すると、0値とグループの優先度値が返ります。表7.6「デバイスマッパー
マルチパスのALUA優先度」 (155 ページ)は、mpath_prio_aluaコマンドが
返す優先度値を示しています。
表 7.6 デバイスマッパーマルチパスのALUA優先度
優先度値
説明
50
デバイスはアクティブで最適化されたグループに属し
ます。
10
デバイスは、アクティブだが最適化されていないグルー
プに属します。
1
デバイスはスタンバイグループに属します。
0
他のすべてのグループ。
multipathコマンドでの処理方法により、値の間隔は大きくとられていま
す。multipathコマンドは、グループ内のパス数とグループの優先度の値を掛
け合わせた結果の値が最も高いグループを選択します。たとえば、非最適化
パスグループが6つのパスをもち(6 x 10 = 60)、最適化パスグループが1つのパ
スをもつ(1 x 50 = 50)場合は、非最適化グループが一番高い値をもつので、
multipathは、非最適化グループを選択します。デバイスに対するトラフィッ
クは、グループ内の6つのパスすべてを、ラウンドロビン方式で使用します。
エラーが発生すると、コマンドの失敗原因を示す、1〜5の値が返ります。詳
細については、mpath_prio_aluaのマニュアルページを参照してください。
デバイスのマルチパスI/Oの管理
155
7.11.5 ターゲットパスグループの報告
SCSIターゲットポートグループの報告(sg_rtpg(8))コマンドを使用します。
詳細については、sg_rtpg(8)のマニュアルページを参照してください。
7.12 ルートデバイスのマルチパスI/O
の設定
SUSE Linux Enterprise Server 11では、DM-MPIO (デバイスマッパーマルチパス
I/O)が使用可能であり、/bootと/rootに対してサポートされています。ま
た、YaSTインストーラ内のYaSTパーティショナは、インストール中のマルチ
パスの有効化をサポートします。
• 7.12.1項 「インストール時にマルチパスI/Oを有効にする」
(156 ページ)
• 7.12.2項 「既存ルートデバイス用マルチパスI/Oの有効化」
(160 ページ)
• 7.12.3項 「ルートデバイスのマルチパスI/Oの無効化」
(161 ページ)
7.12.1 インストール時にマルチパスI/Oを有
効にする
オペレーティングシステムをマルチパスデバイスにインストールしたい場合
は、マルチパスソフトウェアがインストール時に実行されている必要があり
ます。multipathdデーモンは、システムのインストール時に自動的にアクティ
ブになりません。このデーモンは、YaSTパーティショナの[マルチパスの設
定]オプションを使用することによって起動できます。
• 7.12.1.1項 「アクティブ/アクティブマルチパスストレージLUNでインストー
ル時にマルチパスI/Oを有効にする」 (157 ページ)
• 7.12.1.2項 「アクティブ/パッシブマルチパスストレージLUNでインストール
時にマルチパスI/Oを有効にする」 (157 ページ)
156
ストレージ管理ガイド
7.12.1.1 アクティブ/アクティブマルチパスストレージ
LUNでインストール時にマルチパスI/Oを有効
にする
1 YaSTインストール設定ページでのインストール時に、[パーティション分
割]をクリックして、YaSTパーティショナを開きます。
2 [カスタムパーティション - エキスパート用]を選択します。
3 [ハードディスク]メインアイコンを選択し、[設定]ボタンをクリック
し、最後に、[マルチパスの設定]を選択します。
4 multipathを起動します。
YaSTがディスクの再スキャンを開始し、利用可能なマルチパスデバイスを
表示します(/dev/disk/by-id/dm-uuid-mpath
-3600a0b80000f4593000012ae4ab0ae65など)。これが、以降の処理
すべての対象デバイスになります。
5 [次へ]をクリックして、インストールを続行します。
7.12.1.2 アクティブ/パッシブマルチパスストレージ
LUNでインストール時にマルチパスI/Oを有効
にする
multipathdデーモンは、システムのインストール時に自動的にアクティブにな
りません。このデーモンは、YaSTパーティショナの[マルチパスの設定]オ
プションを使用することによって起動できます。
アクティブ/パッシブマルチパスストレージLUNに対するインストール時にマ
ルチパスI/Oを有効にするには:
1 YaSTインストール設定ページでのインストール時に、[パーティション
分割]をクリックして、YaSTパーティショナを開きます。
2 [カスタムパーティション - エキスパート用]を選択します。
デバイスのマルチパスI/Oの管理
157
3 [ハードディスク]メインアイコンを選択し、[設定]ボタンをクリッ
クし、最後に、[マルチパスの設定]を選択します。
4 multipathを起動します。
YaSTがディスクの再スキャンを開始し、利用可能なマルチパスデバイス
を表示します(/dev/disk/by-id/dm-uuid-mpath
-3600a0b80000f4593000012ae4ab0ae65など)。これが、以降の処
理すべての対象デバイスになります。デバイスのパスとUUIDを書き留め
てください。後で必要になります。
5 [次へ]をクリックして、インストールを続行します。
6 すべての設定が完了し、インストールが終了すると、YaSTは、ブート
ローダ情報の書き込みを開始し、システム再起動のカウントダウンを表
示します。[中止]をクリックしてカウンタを中止し、<CTRL> + <ALT>
+ <F5>を押してコンソールにアクセスします。
7 コンソールを使用して、/boot/grub/device.mapファイルのhd0エン
トリにパッシブパスが入力されているかどうか判別します。
これは、インストールではアクティブパスとパッシブパスが区別されな
いので必要です。
7a 次のように入力して、ルートデバイスを/mntにマウントします。
mount /dev/disk/by-id/<UUID>_part2 /mnt
例えば、次のように入力して、すべてのフォントについてアンチ
エイリアスを無効にします。
mount
/dev/disk/by-id/dm-uuid-mpath-3600a0b80000f4593000012ae4ab0ae65_part2
/mnt
7b 次のように入力して、ブートデバイスを/mnt/bootにマウントし
ます。
mount /dev/disk/by-id/<UUID>_part1 /mnt/boot
158
ストレージ管理ガイド
例えば、次のように入力して、すべてのフォントについてアンチ
エイリアスを無効にします。
mount
/dev/disk/by-id/dm-uuid-mpath-3600a0b80000f4593000012ae4ab0ae65_part2
/mnt/boot
7c 次のように入力して、/mnt/boot/grub/device.mapファイル
を開きます。
less /mnt/boot/grub/device.map
7d /mnt/boot/grub/device.mapファイルでhd0エントリがパッ
シブパスをポイントしているかどうか判別し、次のいずれかを実
行します。
• アクティブパス: アクションは不要です。ステップ 8 (159 ページ)
をスキップして、ステップ 9 (160 ページ)に進みます。
• パッシブパス: 設定を変更し、ブートローダを再インストール
する必要があります。ステップ 8 (159 ページ)に進みます。
8 hd0エントリがパッシブパスをポイントする場合は、設定を変更し、ブー
トローダを再インストールします。
8a コンソールのコンソールプロンプトで、次のコマンドを入力しま
す。
mount -o bind /dev /mnt/dev
mount -o bind /sys /mnt/sys
mount -o bind /proc /mnt/proc
chroot
8b コンソールで、multipath -llを実行し、その出力をチェック
して、アクティブパスを見つけます。
デバイスのマルチパスI/Oの管理
159
パッシブパスにはghostフラグが付いています。
8c /mnt/boot/grub/device.mapファイルでhd0エントリをアク
ティブパスに変更し、変更内容を保存し、ファイルを閉じます。
8d MBRからのブートが選択されていた場合、/etc/grub.confは次
のようになります。
setup --stage2=/boot/grub/stage2 (hd0) (hd0,0)
quit
8e 次のコマンドを入力して、ブートローダを再インストールします。
grub < /etc/grub.conf
8f 次のコマンドを入力します。
exit
umount /mnt/*
umount /mnt
9 <CTRL> + <ALT> + <F7>を押して、YaSTグラフィック環境に戻ります。
10 [OK]をクリックして、インストールを再起動します。
7.12.2 既存ルートデバイス用マルチパスI/O
の有効化
1 Linuxをインストールし、1つだけパスをアクティブにします。このパスは、
パーティショナでby-idシンボリックリンクがリストされるパスがお勧め
です。
2 インストール時に使用した/disk//disk/by-idパスを使用してデバイス
をマウントします。
160
ストレージ管理ガイド
3 インストール後、dm-multipathを/etc/sysconfig/kernel:INITRD
_MODULESに追加します。
4 System Zの場合、mkinitrdの実行前に、/etc/zipl.confファイルを編集
してzipl.conf内のby-path情報を、/etc/fstabで使用されたby-id情報に
変更します。
5 /sbin/mkinitrdを再実行して、initrdイメージを更新します。
6 System Zの場合は、mkinitrdの実行後、ziplを実行します。
7 サーバを再起動します。
7.12.3 ルートデバイスのマルチパスI/Oの無
効化
• multipath=offをカーネルコマンドラインに追加します。
これは、ルートデバイスだけに影響します。他のすべてのデバイスは影響
されません。
7.13 既存ソフトウェアRAID用マルチ
パスI/Oの設定
理想的には、デバイスのマルチパス処理を設定してから、それらのデバイス
をソフトウェアRAIDデバイスのコンポーネントとして使用してください。ソ
フトウェアRAIDデバイスの作成後にマルチパス処理を追加した場合は、再起
動時にmultipathサービスの後でDM-MPIOサービスが開始することがあり
ます。その場合は、マルチパス処理がRAIDに使用できないように見えます。
このセクションのプロシージャを使用すると、すでに存在しているソフトウェ
アRAIDに対してマルチパス処理を実行できます。
たとえば、次のような場合は、ソフトウェアRAID内のデバイスにマルチパス
処理を設定する必要があることがあります。
デバイスのマルチパスI/Oの管理
161
• 新規インストールまたはアップグレード時にパーティショニング設定の一
部として、新しいソフトウェアRAIDを作成する場合
• マルチパス処理用に設定しなかったデバイスをメンバーデバイスまたはス
ペアとしてソフトウェアRAIDで使用する場合
• 新しいHBAアダプタをサーバに追加するか、またはSAN内でストレージサ
ブシステムを拡張することで、システムを大きくする場合
注記
以降の説明では、ソフトウェアRAIDデバイスを/dev/mapper/mpath0>(カー
ネルによって認識されるデバイス名)と想定しています。/etc/multipath
.confファイルで、ユーザフレンドリ名を有効にしている(7.9項 「ユーザ
フレンドリ名または別名の設定」 (130 ページ)に記載)ことを想定していま
す。
ソフトウェアRAIDのデバイス名の指定は、必ず変更してください。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
特に指示のない限り、この端末を使用して、以降のステップでコマンド
を入力します。
2 ソフトウェアRAIDデバイスが現在マウントされているか、または実行中
の場合、デバイスごとに次のコマンドを入力して、デバイスをマウント
解除し、停止します。
umount /dev/mapper/mpath0
mdadm --misc --stop /dev/mapper/mpath0
3 次のように入力して、boot.mdサービスを停止します。
/etc/init.d/boot.md stop
4 以降のコマンドで、boot.multipathサービスおよびmultipathdサー
ビスを開始します。
162
ストレージ管理ガイド
/etc/init.d/boot.multipath start
/etc/init.s/multipathd start
5 マルチパス処理サービスの開始後、ソフトウェアRAIDのコンポーネント
デバイスが/dev/disk/by-idディレクトリにリストされているかどう
か確認します。次のいずれかの操作を行います。
• デバイスがリストされている: デバイス名に、デバイスマッパーマル
チパスのデバイス名(/dev/dm-1など)へのシンボリックリンクがある
はずです。
• デバイスがリストされていない: デバイスをフラッシュし、再検出す
ることで、マルチパスサービスにデバイスを認識させます。
この操作を行うには、次のコマンドを入力します。
multipath -F
multipath -v0
これで、デバイスが/dev/disk/by-id内にリストされ、デバイスマッ
パーマルチパスのデバイス名へのシンボリックリンクを持ちます。次
に例を示します。
lrwxrwxrwx 1 root root 10 2011-01-06 11:42
dm-uuid-mpath-36006016088d014007e0d0d2213ecdf11 -> ../../dm-1
6 次のように入力して、boot.mdサービスとRAIDデバイスを再起動しま
す。
/etc/init.d/boot.md start
7 次のように入力して、ソフトウェアRAIDの状態をチェックします。
mdadm --detail /dev/mapper/mpath0
デバイスのマルチパスI/Oの管理
163
RAIDのコンポーネントデバイスは、そのデバイスマッパーマルチパスの
デバイス名(/dev/disk/by-idディレクトリにデバイスのシンボリック
リンクとしてリストされている)と一致する必要があります。
8 新しいinitrdを作成して、デバイスマッパーマルチパスのサービスが
再起動時にRAIDサービスの前にロードされるようにしてください。
mkinitrdの実行が必要なのは、ルート(/)デバイスまたはその一部
(/var、/etc、/logなど)がSAN上にあり、マルチパスのブートが必要
な場合のみです。
<Enter>
mkinitrd -f multipath
9 サーバを再起動して、これらのポストインストール構成の設定を適用し
ます。
10 RAIDステータスをチェックして、ソフトウェアRAIDアレイが、マルチ
パスデバイスの上に正しく示されることを確認します。<Enter>
mdadm --detail /dev/mapper/mpath0
次に例を示します。
Number Major Minor RaidDevice State
0 253 0 0 active sync /dev/dm-0
1 253 1 1 active sync /dev/dm-1
2 253 2 2 active sync /dev/dm-2
7.14 新規デバイスのスキャン(再起動
なし)
ご使用のシステムがマルチパス処理用に設定されており、後からSANにスト
レージを追加する必要がある場合は、rescan-scsi-bus.shスクリプトを
使用して新しいデバイスをスキャンすることができます。デフォルトでは、
このスクリプトは典型的なLUN範囲ですべてのHBAをスキャンします。
164
ストレージ管理ガイド
構文
rescan-scsi-bus.sh [options] [host [host ...]]
コマンドラインでホストを指定するか(廃止予定)、--hosts=LISTオプショ
ン(推奨)を使用することができます。
オプション
ほとんどのストレージサブシステムでは、このスクリプトはオプションを指
定しなくても正常に実行されます。ただし、特殊な場合は
rescan-scsi-bus.shスクリプトに対して、次のいずれかのパラメータを
使用する必要があります。
オプション
-l
-L NUM
説明
LUN 0~7のスキャンを起動。[デフォルト: 0]
LUN 0~NUMのスキャンを起動。[デフォルト: 0]
-w
ターゲットデバイスIDが0~15をスキャンします。[デ
フォルト: 0~7]
-c
チャネル0または1のスキャンを有効にします。[デフォ
ルト: 0]
-r
--remove
-i
--issueLip
--forcerescan
デバイスの削除を有効にします。[デフォルト:無効]
ファイバチャネルLIPのリセットを発行します。[デ
フォルト:無効]
既存デバイスを再度スキャンします。
デバイスのマルチパスI/Oの管理
165
オプション
--forceremove
説明
各デバイスを削除し、再度追加します。
警告
このオプションは危険なので、注意して使用してく
ださい。
--nooptscan
--color
--hosts=LIST
0が検出できない場合は、LUNの検索を中止しないでく
ださい。
色付きのプレフィクス、OLD/NEW/DELを使用します。
LIST内のホストだけをスキャンします。ここでLISTは、
単一の値と範囲をカンマで区切ったリストです。スペー
スは使用できません。
--hosts=A[-B][,C[-D]]
--channels=LIST
LIST内のチャネルだけをスキャンします。ここでLIST
は、単一の値と範囲をカンマで区切ったリストです。
スペースは使用できません。
--channels=A[-B][,C[-D]]
--ids=LIST
LIST内のターゲットIDだけをスキャンします。ここで
LISTは、単一の値と範囲をカンマで区切ったリストで
す。スペースは使用できません。
--ids=A[-B][,C[-D]]
--luns=LIST
166
ストレージ管理ガイド
LIST内のLUNだけをスキャンします。ここでLISTは、
単一の値と範囲をカンマで区切ったリストです。スペー
スは使用できません。
オプション
説明
--luns=A[-B][,C[-D]]
手順
次のプロシージャを使用して、システムを再起動せずに、デバイスをスキャ
ンして、マルチパス処理に使用できるようにします。
1 ストレージサブシステムで、ベンダのツールを使用してデバイスを割り当
て、そのアクセス制御設定を更新して、Linuxシステムが新しいストレージ
をアクセスできるようにします。詳細については、ベンダのマニュアルを
参照してください。
2 すべてのターゲットをスキャンしてホストの有無を調べ、Linuxカーネルの
SCSIサブシステムのミドルレイヤに新しいデバイスを認識させます。端末
コンソールのプロンプトで、次のように入力します。
rescan-scsi-bus.sh [options]
3 システムログ/var/log/messagesファイル)をチェックしてスキャニング
の進行状況を調べます。端末コンソールのプロンプトで、次のように入力
します。
tail -30 /var/log/messages
このコマンドは、ログの最後の30行を表示します。次に例を示します。
# tail
. . .
Feb 14
Feb 14
Feb 14
Feb 14
Feb 14
Feb 14
Feb 14
Feb 14
-30 /var/log/messages
01:03 kernel: SCSI device sde: 81920000
01:03 kernel: SCSI device sdf: 81920000
01:03 multipathd: sde: path checker registered
01:03 multipathd: sdf: path checker registered
01:03 multipathd: mpath4: event checker started
01:03 multipathd: mpath5: event checker started
01:03:multipathd: mpath4: remaining active paths: 1
01:03 multipathd: mpath5: remaining active paths: 1
デバイスのマルチパスI/Oの管理
167
4 ステップ 2 (167 ページ)からステップ 3 (167 ページ)まで繰り返し、新しいデ
バイスに接続しているLinuxシステム上の他のHBAアダプタを介して、パス
を追加します。
5 multipathコマンドを実行して、DM-MPIO設定用のデバイスを認識しま
す。端末コンソールのプロンプトで、次のように入力します。
multipath
これで、新しいデバイスをマルチパス処理用に設定できます。
7.15 パーティショニングされた新規デ
バイスのスキャン(再起動なし)
このセクションの例を使用して、新たに追加したマルチパスLUNを再起動な
しで検出します。
1 端末コンソールを開き、rootユーザとしてログインします。
2 すべてのターゲットをスキャンしてホストの有無を調べ、Linuxカーネル
のSCSIサブシステムのミドルレイヤに新しいデバイスを認識させます。
端末コンソールのプロンプトで、次のように入力します。
rescan-scsi-bus.sh [options]
rescan-scsi-bus-shスクリプトの構文とオプション情報の詳細につ
いては、7.14項 「新規デバイスのスキャン(再起動なし)」 (164 ページ)を
参照してください。
3 次のように入力して、デバイスが認識されていること(リンクに新しいタ
イムスタンプが付いているかどうかなど)を確認します。
ls -lrt /dev/dm-*
次のように入力して、/dev/disk/by-id内のデバイスを確認すること
もできます。
ls -l /dev/disk/by-id/
168
ストレージ管理ガイド
4 次のように入力して、新しいデバイスがログに表示されることを確認し
ます。
tail -33 /var/log/messages
5 テキストエディタで、デバイスの新しいエイリアス定義を/etc/
multipath.confファイルに追加します(data_vol3など)。
たとえば、UUIDが36006016088d014006e98a7a94a85db11であれ
ば、次の変更を行います。
defaults {
user_friendly_names
yes
}
multipaths {
multipath {
wwid
36006016088d014006e98a7a94a85db11
alias data_vol3
}
}
6 次の入力で、デバイスのパーティションテーブルを作成します。
fdisk /dev/disk/by-id/dm-uuid-mpath-<UUID>
UUIDをデバイスのWWID(36006016088d014006e98a7a94a85db11
など)で置き換えます。
7 次のように入力して、udevをトリガします。
echo 'add' > /sys/block/<dm_device>/uevent
たとえば、dm-8上のパーティションに対して、デバイスマッパーデバイ
スを生成するには、次のように入力します。
echo 'add' > /sys/block/dm-8/uevent
8 次のコマンドを入力して、新しいパーティションのファイルシステムお
よびラベルを作成します。
デバイスのマルチパスI/Oの管理
169
mke2fs -j /dev/disk/by-id/dm-uuid-mpath-<UUID_partN>
tune2fs -L data_vol3 /dev/disk/by-id/dm-uuid-<UUID_partN>
UUID_part1を、実際のUUIDおよびパーティション番号
(36006016088d014006e98a7a94a85db11_part1など)で置き換えます。
9 次の入力で、DM-MPIOを再起動して、エイリアスを読み込ませます。
/etc/init.d/multipathd restart
10 次の入力で、デバイスがmultipathdによって認識されていることを確
認します。
multipath -ll
11 テキストエディタで、/etc/fstabファイルにマウントエントリを追加
します。
この時点では、ステップ 5 (169 ページ)で作成したエイリアスは、ま
だ、/dev/disk/by-labelディレクトリにあります。マウントエント
リを/dev/dm-9パスに追加した後、次回の再起動の前に、マウントエン
トリを次のように変更します。
LABEL=data_vol3
12 次のように入力して、マウントポイントとして使用するディレクトリを
作成し、デバイスをマウントします。
md /data_vol3
mount /data_vol3
7.16 マルチパスI/Oステータスの表示
マルチパスI/Oのステータスをクエリすると、マルチパスマップの現在のス
テータスが出力されます。
170
ストレージ管理ガイド
multipath -lオプションを使用すると、パスチェッカが最後に実行された
時点での現行パスステータスが表示されます。ただし、パスチェッカは実行
されません。
multipath -llオプションを使用すると、パスチェッカが実行され、パス
情報が更新され、最後に、現在のステータス情報が表示されます。このオプ
ションは、常に、パスステータスの最新情報を表示します。
• 端末コンソールのプロンプトで、次のように入力します。
multipath -ll
各マルチパスデバイスの情報が表示されます。次に例を示します。
3600601607cf30e00184589a37a31d911
[size=127 GB][features="0"][hwhandler="1 emc"]
\_ round-robin 0 [active][first]
\_ 1:0:1:2 sdav 66:240 [ready ][active]
\_ 0:0:1:2 sdr 65:16
[ready ][active]
\_ round-robin 0 [enabled]
\_ 1:0:0:2 sdag 66:0
[ready ][active]
\_ 0:0:0:2 sdc 8:32
[ready ][active]
デバイスごとに、デバイスのID、サイズ、機能、およびハードウェアハンド
ラが表示されます。
デバイスへのパスは、自動的に、デバイス検出時に優先度グループとしてグ
ループ化されます。一度に1つの優先度グループだけがアクティブになりま
す。アクティブ/アクティブ構成の場合、すべてのパスが同じグループに属し
ます。アクティブ/パッシブ構成の場合、パッシブパスは別個の優先度グルー
プに属しれます。
グループごとに、次の情報が表示されます。
• ラウンドロビン方式など、グループ内でのI/O負荷の分散に使用されるスケ
ジューリングポリシー
• グループがアクティブか、無効か、または有効か
• 最初の(優先度の最も高い)グループかどうか
デバイスのマルチパスI/Oの管理
171
• グループ内に含まれるパス
パスごとに、次の情報が表示されます。
• host:bus:target:lunとしての物理アドレス(1:0:1:2など)
• デバイスノード 名(sdaなど)
• メジャー/マイナー番号
• デバイスのステータス
7.17 エラーになったI/Oの管理
queue_if_no_pathを有効にすることで、すべてのパスで同時に障害が発生した
場合は、I/Oをキューに登録するように、マルチパス処理を設定する必要があ
るかもしれません。設定しておかないと、すべてのパスに障害が発生すると
I/Oもすぐに失敗してしまいます。ドライバ、HBA、またはファブリックにス
プリアスエラーが発生したというシナリオでは、それらのエラーですべての
パスが失われるI/Oをすべて待ち行列に入れ、エラーを上方にプロパゲートし
ないように、DM-MPIOを設定してください。
マルチパスデバイスをクラスタで使用する場合は、queue_if_no_pathを無効に
することができます。これにより、I/Oがキューに入る代わりに、パスがエ
ラーになり、そのI/Oエラーがエスカレートしてクラスタリソースのフェール
オーバーを引き起こします。
ただし、queue_if_no_pathを有効にすると、パスが回復しない限り、I/Oがいつ
までもキューに留まることになるので、multipathdが実行中であり、シナ
リオに有効なことを必ず確認してください。確認しておかないと、再起動す
るまで、またはキューの代わりに手動でフェールオーバーに戻すまで、影響
を受けたマルチパスデバイスでI/Oが無限に停止する可能性があります。
シナリオをテストするには:
1 端末コンソールで、rootユーザとしてログインします。
2 次の入力で、デバイスI/Oに関して、フェールオーバーの代わりに待ち行列
処理をアクティブにします。
172
ストレージ管理ガイド
dmsetup message device_ID 0 queue_if_no_path
device_IDを実際のデバイスのIDに置き換えます。値0はセクタを表し、
セクタ情報が必要でないときに使用されます。
たとえば、次のように入力します。
dmsetup message 3600601607cf30e00184589a37a31d911 0 queue_if_no_path
3 次の入力で、デバイスI/Oのフェールオーバーに戻ります。
dmsetup message device_ID 0 fail_if_no_path
このコマンドにより、ただちに、待ち行列に入ったすべてのI/Oがエラーに
なります。
device_IDを実際のデバイスのIDに置き換えます。たとえば、次のように
入力します。
dmsetup message 3600601607cf30e00184589a37a31d911 0 fail_if_no_path
待ち行列内のI/Oをすべてのパスがエラーになるシナリオ用に設定するには:
1 端末コンソールで、rootユーザとしてログインします。
2 /etc/multipath.confファイルをテキストエディタで開きます。
3 defaultsセクションとその閉じ括弧を非コメント化した後、次のように
default_features設定を追加します。
defaults {
default_features "1 queue_if_no_path"
}
4 /etc/multipath.confファイルの変更後、mkinitrdを実行してシステ
ム上にINITRDを作成し、次に、再起動で変更内容を有効にします。
5 デバイスI/Oのフェールオーバーに戻る準備ができたら、次のように入力し
ます。
デバイスのマルチパスI/Oの管理
173
dmsetup message mapname 0 fail_if_no_path
mapnameを該当デバイスのマップされたエイリアス名またはデバイスIDに
置き換えます。値0はセクタを表し、セクタ情報が必要でないときに使用さ
れます。
このコマンドにより、待ち行列で待機中のすべてのI/Oがエラーとなり、エ
ラーが呼び出し側アプリケーションにプロパゲートします。
7.18 停止したI/Oの解決
すべてパスが同時にエラーとなり、I/Oが待ち行列に入って停止している場合
は、次のプロシージャを実行します。
1 端末コンソールのプロンプトで、次のコマンドを入力します。
dmsetup message mapname 0 fail_if_no_path
mapnameをデバイスの正しいデバイスIDまたはマップされたエイリアス名
で置き換えます。値0はセクタを表し、セクタ情報が必要でないときに使用
されます。
このコマンドにより、待ち行列で待機中のすべてのI/Oがエラーとなり、エ
ラーが呼び出し側アプリケーションにプロパゲートします。
2 端末コンソールのプロンプトで、次のコマンドを入力して、待ち行列を再
度アクティブにします。
dmsetup message mapname 0 queue_if_no_path
7.19 MPIOのトラブルシューティング
本項では、MPIOに関するいくつかの既知の問題と、考えられる解決手段につ
いて説明します。
• 7.19.1項 「マルチパス0.4.9への更新後に、個別デバイスのprio設定が失敗す
る」 (175 ページ)
174
ストレージ管理ガイド
• 7.19.2項 「multipath-tools-0.4.9への更新後に、引数を伴うprio設定が失敗す
る」 (175 ページ)
• 7.19.3項 「技術情報ドキュメント」
(176 ページ)
7.19.1 マルチパス0.4.9への更新後に、個別デ
バイスのprio設定が失敗する
SLES 11 SP2用マルチパスツール 2以降では、/etc/multipath.confファイ
ルのdefaults{}またはdevices{}セクションのprio設定を使用します。
キーワードprioが、multipath{)セクションの個別のmultipaths定義に
指定された場合は、暗黙のうちに無視されます。
SLES 11 SP1用のマルチパスツール0.4.8以前では、multipath{)セクション
の個別のmultipaths定義内のprio設定で、defaults{}またはdevices{}
セクションのprio設定を上書きすることができました。
7.19.2 multipath-tools-0.4.9への更新後に、
引数を伴うprio設定が失敗する
multipath-tools-0.4.8からmultipath-tools-0.4.9に更新すると、
引数を必要とするPrioritizerの場合、/etc/multipath.confファイル内の
prio設定が壊れます。multipath-tools-0.4.9では、Prioritizerの指定にはprio
キーワードが使われ、引数を必要とするPrioritizerの指定には、prio_args
キーワードが使われます。これまでは、Prioritizerとその引数はいずれも、同
じprio行で指定していました。
たとえば、multipath-tools-0.4.8では、次の行を使用してPrioritizerとその引数を
同じ行で指定していました。
prio "weightedpath hbtl [1,3]:.:.+:.+ 260 [0,2]:.:.+:.+ 20"
multipath-tools-0.4.9への更新後は、このコマンドを使用するとエラー
となります。メッセージの例を以下に示します。
デバイスのマルチパスI/Oの管理
175
<Month day hh:mm:ss> | Prioritizer 'weightedpath hbtl [1,3]:.:.+:.+ 260
[0,2]:.:.+:.+ 20' not found in /lib64/multipath
この問題を解決するには、テキストエディタで、/etc/multipath.conf
ファイル内のprio行を変更します。2つの行を作成して、prio行にPrioritizer
を指定し、その下のprio_args行にPrioritizerの引数を指定します。
prio "weightedpath"
prio_args "hbtl [1,3]:.:.+:.+ 260 [0,2]:.:.+:.+ 20"
7.19.3 技術情報ドキュメント
SUSE Linux Enterprise ServerのマルチパスI/Oの問題のトラブルシューティング
については、Novellサポートナレッジベースにある、次のTID (技術情報ドキュ
メント)を参照してください。
• Troubleshooting SLES Multipathing (MPIO) Problems (TID 3231766) [ http://
www.novell.com/support/kb/doc.php?id=3231766 ]
• DM MPIO Device Blacklisting Not Honored in multipath.conf (TID3029706) [
http://www.novell.com/support/kb/doc.php?id=3029706 ]
• Troubleshooting SCSI (LUN) Scanning Issues (TID 3955167) [ http://www
.novell.com/support/kb/doc.php?id=3955167 ]
• Using LVM on Multipath (DM MPIO) Devices [ http://www.novell.com/
support/kb/doc.php?id=7007498 ]
7.20 次に行う作業
ソフトウェアRAIDを使用したい場合は、デバイス上でファイルシステムを作
成してから、ソフトウェアRAIDの作成と設定をしてください。詳細について
は、次のリンクを参照してください。
• 第8章 ソフトウェアRAIDの設定
(177 ページ)
• 第10章 mdadmによるソフトウェアRAID 6および10の管理
176
ストレージ管理ガイド
(195 ページ)
8
ソフトウェアRAIDの設定
RAID (Redundant Array of Independent Disks)の目的は、複数のハードディスク
パーティションを1つの大きい仮想ハードディスクに結合し、パフォーマンス
とデータのセキュリティを最適化することです。ほとんどのRAIDコントロー
ラはSCSIプロトコルを使用します。これは、IDEプロトコルも効率的な方法で
多数のハードディスクのアドレスを指定でき、コマンドのパラレル処理に適
しているからです。一方、IDEまたはSATAハードディスクをサポートしてい
るRAIDコントローラもあります。ソフトウェアRAIDは、ハードウェアRAID
コントローラ購入による追加コストなしで、RAIDシステムの利点を提供しま
す。ただし、これにはいくらかのCPU時間を要し、高性能なコンピュータに
は適さないメモリ要件があります。
重要
ソフトウェアRAIDは、OCFS2などのクラスタ化されたファイルシステムの
下ではサポートされません。これはRAIDが同時起動をサポートしないため
です。OCFS2にRAIDを使用したい場合は、RAIDをストレージサブシステム
に処理させる必要があります。
SUSE Linux Enterpriseには、いくつかのハードディスクを1つのソフトウェア
RAIDシステムに統合するオプションがあります。RAIDには、それぞれが異
なる目標、利点、および属性をもついくつかのハードディスクを1つのRAID
システムに結合するためのいくつかの戦略が含まれています。これらは通常、
RAIDレベルと呼ばれます。
• 8.1項 「RAIDレベルの理解」
(178 ページ)
• 8.2項 「YaSTによるソフトウェアRAID設定」
(180 ページ)
ソフトウェアRAIDの設定
177
• 8.3項 「トラブルシューティングソフトウェアRAID」
• 8.4項 「詳細情報」
(182 ページ)
(183 ページ)
8.1 RAIDレベルの理解
このセクションでは、通常のRAIDレベル(0、1、2、3、4、5)とネストした
RAIDレベルについて説明します。
• 8.1.1項 「RAID 0」
(178 ページ)
• 8.1.2項 「RAID 1」
(178 ページ)
• 8.1.3項 「RAID 2およびRAID 3」
• 8.1.4項 「RAID 4」
(179 ページ)
• 8.1.5項 「RAID 5」
(179 ページ)
(179 ページ)
• 8.1.6項 「ネストしたRAIDレベル」
(180 ページ)
8.1.1 RAID 0
このレベルでは、各ファイルのブロックが複数のディスクドライブに分散さ
れるので、データアクセスのパフォーマンスが向上します。このレベルはデー
タのバックアップを提供しないため、実際にはRAIDではありませんが、この
種のシステムではRAID 0という名前が一般的です。RAID 0では、2つ以上の
ハードディスクが互いにプールします。高いパフォーマンスが得られます。
ただし、1つのハードディスクに障害が発生しただけで、RAIDシステムが破
壊され、データは失われます。
8.1.2 RAID 1
このレベルでは、データが他のハードディスクに一対一でコピーされるため、
データに対する適切なセキュリティが提供されます。これは、ハードディス
クミラーリングとして知られています。ディスクが破壊された場合は、ディ
スクの内容のコピーをミラー先のもう1つのディスクで利用できます。した
178
ストレージ管理ガイド
がって、1つのディスク以外のすべてのディスクが損なわれても、データを保
全できます。ただし、損傷が検出されない場合は、正しいディスクに損傷し
たデータがミラーリングされる可能性があり、その場合はデータが壊れます。
単一ディスクアクセスの使用時と比較すると、コピープロセスで書き込みの
パフォーマンスが若干低下しますが(10~ 20%遅くなる)、読み取りアクセス
は、通常の物理ハードディスクのどれと比べても、著しく高速です。これは、
データが複製されているので、それらを並行してスキャンできるためです。
RAID 1では、一般に、読み取りトランザクションの速度が単一ディスクのほ
ぼ2倍、書き込みトランザクションの速度が単一ディスクと同じです。
8.1.3 RAID 2およびRAID 3
これらは、一般的なRAID実装ではありません。レベル2では、データは、ブ
ロックレベルではなく、ビットレベルでストライプ化されます。レベル3は、
専用パリティディスクによってバイトレベルのストライプ化を提供しますが、
複数の要求を同時にサービスすることはできません。両レベルとも、まれに
しか使用されません。
8.1.4 RAID 4
レベル4は、専用パリティディスクと結合されたレベル0と同様に、ブロック
レベルのストライプ化を提供します。データディスクがエラーになると、パ
リティデータで置き換え用のディスクが作成されます。ただし、パリティディ
スクは、書き込みアクセスにボトルネックを生成する可能性があります。に
もかかわらず、レベル4は時々使用されます。
8.1.5 RAID 5
RAIDD 5は、レベル0とレベル1の間をパフォーマンスおよび冗長性の面で調
整して、最適化したものです。ハードディスクスペースは、使用されるディ
スク数から1を引いたものに等しくなります。データは、RAIDD 0の場合のよ
うにハードディスク間で分散されます。パーティションの1つで作成されたパ
リティブロックがあるのは、セキュリティ上の理由からです。各パーティショ
ンはXORによって互いにリンクされているので、システム障害の場合に、内
容が対応するパリティブロックによって再構築されます。RAIDD 5の場合、
同時に複数のハードディスクが障害を起こすことはありません。1つのハード
ソフトウェアRAIDの設定
179
ディスクに障害がある場合は、そのハードディスクをできるだけ早く交換し
て、データ消失の危険性をなくす必要があります。
8.1.6 ネストしたRAIDレベル
他にもいくつかのRAIDレベルが開発されています(RAIDn、RAID 10、
RAID 0+1、RAID 30、RAID 50など)。それらの一部は、ハードウェアベンダ
によって作成された専有インプリメンテーションです。これらのレベルは、
あまり広く使用されてはいないので、ここでの説明は省略します。
8.2 YaSTによるソフトウェアRAID設定
YaSTソフトRAID設定には、YaST Expert Partitionerからアクセスできます。こ
のパーティション設定ツールを使用すると、既存のパーティションを編集お
よび削除したり、ソフトウェアRAIDで使用する新規パーティションを作成で
きます。
RAIDパーティションを作成するには、まず、[作成] > [Do not format(フォー
マットしない)]の順にクリックし、次に、[0xFD Linux RAID]を選択しま
す。RAID 0およびRAID 1の場合、少なくとも2つのパーティションが必要で
す。RAID 1の場合、パーティションは2つだけです。RAID 5を使用する場合、
少なくとも3つのパーティションが必要です。各セグメントは最小サイズの
パーティションと同量のスペースしか提供できないので、同じサイズのパー
ティションだけを使用するようお勧めします。RAIDパーティションを異なる
ハードディスクに保存すると、 1つが損傷した場合のデータ消失のリスクが削
減され(RAID 1と5)、またRAID 0のパフォーマンスを最適化できます。RAID
で使用するすべてのパーティションを作成したら、[RAID] > [Create RAID
(RAIDの作成)]の順にクリックして、RAID設定を開始します。
ウィザードの次のページで、RAIDレベルを0、1、5のうちから選び、[次へ]
をクリックします。次のダイアログ(図8.1「RAIDパーティション」(181 ページ)
参照)では、[Linux RAID]または[Linuxネイティブ]のどちらかのタイプの
すべてのパーティションがリストされます。スワップパーティションまたは
DOSパーティションは表示されません。パーティションがRAIDボリュームに
すでに割り当てられている場合は、RAIDデバイスの名前(たとえば/dev/md0)
がリストに表示されます。割り当てられていないパーティションは、「--」で
示されます。
180
ストレージ管理ガイド
図 8.1 RAIDパーティション
割り当て解除済みのパーティションを選択したRAIDボリュームに追加するに
は、まず、そのパーティションを選択して、[追加]をクリックします。こ
の時点で、選択したパーティションの横に、RAIDデバイスの名前が表示され
ます。すべてのパーティションをRAID用の予約パーティションとして割り当
てます。すべてのパーティションを割り当てないと、パーティションのスペー
スが未使用のまま残ります。すべてのパーティションを割り当てたら、[次
へ]をクリックして、設定ダイアログに進みます。このダイアログではパ
フォーマンスを微調整できます(図8.2「ファイルシステム設定」 (182 ページ)
を参照)。
ソフトウェアRAIDの設定
181
図 8.2 ファイルシステム設定
従来のパーティションの場合と同様の設定以外だけでなく、暗号化とRAIDボ
リュームのマウントポイントを使用するように、ファイルシステムを設定し
ます。[完了]で設定を完了した後、Expert Partitionerで、RAIDと指定されて
いる/dev/md0などのデバイスを参照してください。
8.3 トラブルシューティングソフトウェ
アRAID
/proc/mdstatファイルをチェックして、RAIDパーティションが破損してい
るかどうかを調べます。システム障害が発生した場合は、Linuxシステムを
シャットダウンして、問題のあるハードディスクを、同じ方法でパーティショ
ニングされている新しいハードディスクに置き換えます。次に、システムを
再起動して、mdadm /dev/mdX --add /dev/sdXコマンドを入力します。
「X」を特定のデバイス識別子に置き換えてください。これにより、ハード
182
ストレージ管理ガイド
ディスクがRAIDシステムに自動的に統合され、そのRAIDシステムが完全に
再構築されます。
再構築中もすべてのデータにアクセスできますが、RAIDが完全に再構築され
るまでは、パフォーマンスに問題が発生する場合があります。
8.4 詳細情報
ソフトウェアRAIDの設定方法と詳細情報が、次のHOWTOにあります。
• Linux RAID wiki [ https://raid.wiki.kernel.org/index.php/Linux
_Raid ]
• The Software RAID HOWTO(/usr/share/doc/packages/mdadm/Software
-RAID.HOWTO.htmlファイル)
「linux-raid [http://marc.info/?l=linux-raid]」などのLinux RAIDメー
リングリストもあります。
ソフトウェアRAIDの設定
183
ルートパーティション用のソフ
トウェアRAID1の設定
9
SUSE Linux Enterprise Server 11では、Device Mapper RAIDツールがYaSTパー
ティショナに統合されています。インストール時にパーティショナを使用し
て、ルート(/)パーティションを含むシステムデバイス用にソフトウェアRAID1
を作成することができます。/bootパーティションは、MD RAID1とは別の
デバイス上に作成する必要があります。
• 9.1項 「ルートパーティション用のソフトウェアRAID1デバイスを使用する
ための前提条件」 (185 ページ)
• 9.2項 「インストール時にiSCSIイニシエータサポートを有効にする」
(186 ページ)
• 9.3項 「インストール時にマルチパスI/Oのサポートを有効にする」
(187 ページ)
• 9.4項 「ルート(/)パーティション用のソフトウェアRAID1デバイスの作成」
(187 ページ)
9.1 ルートパーティション用のソフト
ウェアRAID1デバイスを使用する
ための前提条件
設定が次の要件を満たしていることを確認してください。
ルートパーティション用のソフトウェアRAID1の設定
185
• RAID1のミラーリングデバイスを作成するため、2つのハードドライブが必
要です。ハードドライブは類似のサイズで構成する必要があります。RAID
は小さい方のドライブのサイズを採用します。ブロックストレージデバイ
スには、ローカル(マシンに内蔵、または直結されたもの)、ファイバチャネ
ルストレージサブシステム、またはiSCSIストレージサブシステムを自由に
組み合わせることができます。
• /bootパーティション用に使用する、3つ目のデバイスが必要です。 ブート
デバイスは、ローカルのデバイスである必要があります。
• ハードウェアRAIDデバイスを使用している場合は、その上でソフトウェア
RAIDを実行しようとしないでください。
• iSCSIターゲットデバイスをご使用の場合は、RAIDデバイスを作成する前に
iSCSIイニシエータサポートを有効にする必要があります。
• ご使用のストレージサブシステムが、ソフトウェアRAIDを使用する予定の
直結されたローカルデバイス、ファイバチャネル、またはiSCSIデバイスと
サーバの間で複数のI/Oパスを提供している場合は、RAIDデバイスを作成す
る前に、マルチパスサポートを有効にしなければなりません。
9.2 インストール時にiSCSIイニシエー
タサポートを有効にする
ルート(/)パーティションに使用する予定のiSCSIターゲットデバイスがある場
合は、ソフトウェアRAID1デバイスを作成する前に、iSCSIイニシエータソフ
トウェアを有効にして、これらのデバイスを使用可能にしなければなりませ
ん。
1 [インストールの設定]ページが表示されるまで、SUSE Linux Enterprise
11のYaSTのインストールを行います。
2 [パーティション分割]をクリックして、[ハードディスクの準備]ペー
ジを開き、[カスタムパーティション(エキスパート用)]をクリックし、
次に[次へ]をクリックします。
3 [エキスパートパーティショナ]のページで、[システムビュー]パネル
の[ハードディスク]を展開し、デフォルトの提案内容を表示します。
186
ストレージ管理ガイド
4 [ハードディスク]ページで、[設定]、[iSCSIの設定]を選択し、次に
iSCSIイニシエータの設定を続行するかどうかのプロンプトが表示されたら
[続ける]をクリックします。
9.3 インストール時にマルチパスI/Oの
サポートを有効にする
ルート(/)パーティション用に使用する予定のデバイスへの複数のI/Oパスがあ
る場合は、ソフトウェアRAID1デバイスを作成する前にマルチパスサポート
を有効にする必要があります。
1 [インストールの設定]ページが表示されるまで、SUSE Linux Enterprise
11のYaSTのインストールを行います。
2 [パーティション分割]をクリックして、[ハードディスクの準備]ペー
ジを開き、[カスタムパーティション(エキスパート用)]をクリックし、
次に[次へ]をクリックします。
3 [エキスパートパーティショナ]のページで、[システムビュー]パネル
の[ハードディスク]を展開し、デフォルトの提案内容を表示します。
4 [ハードディスク]ページで、[設定]、[マルチパスの設定]を選択し、
次にマルチパスの起動を確認するプロンプトが表示されたら、[はい]を
クリックします。
これによってデバイスが再度スキャンされ、複数のパスが展開されるので、
ハードディスクのリストに各デバイスが重複して掲載されることはありま
せん。
9.4 ルート(/)パーティション用のソフ
トウェアRAID1デバイスの作成
1 [インストールの設定]ページが表示されるまで、SUSE Linux Enterprise
11のYaSTのインストールを行います。
ルートパーティション用のソフトウェアRAID1の設定
187
2 [パーティション分割]をクリックして、[ハードディスクの準備]ペー
ジを開き、[カスタムパーティション(エキスパート用)]をクリックし、
次に[次へ]をクリックします。
3 [エキスパートパーティショナ]ページで、[システムビュー]パネルの
[ハードディスク]を展開し、デフォルトの提案内容を表示し、提案され
ているパーティションを選択して、[削除]をクリックします。
4 /bootパーティションを作成します。
4a [エキスパートパーティショナ]ページの[ハードディスク]
で、/bootパーティションに使用するデバイスを選択し、次に[ハー
ドディスクパーティション]タブの[追加]をクリックします。
4b [新しいパーティションの種類]で、[プライマリパーティション]
を選択し、次に[次へ]をクリックします。
4c [新しいパーティションのサイズ]で、使用するサイズを指定し、
次に[次へ]をクリックします。
4d [フォーマットオプション]で、[フォーマットパーティション]
を選択して、次にドロップダウンリストから好みのファイルシステ
ム(Ext2や Ext3など)を選択します。
4e [マウントオプション]で、[パーティションをマウントする]を
選択し、次にドロップダウンリストから[/boot]を選択します。
4f [完了]をクリックします。
5 スワップパーティションを作成します。
5a [エキスパートパーティショナ]ページの[ハードディスク]で、
スワップパーティションに使用するデバイスを選択し、次に[ハー
ドディスクパーティション]タブの[追加]をクリックします。
5b [新しいパーティションの種類]で、[プライマリパーティション]
を選択し、次に[次へ]をクリックします。
5c [新しいパーティションのサイズ]で、使用するサイズを指定し、
次に[次へ]をクリックします。
188
ストレージ管理ガイド
5d [フォーマットオプション]で[パーティションをフォーマットす
る]を選択し、次にドロップダウンリストから[スワップ]を選択
します。
5e [マウントオプション]で、[パーティションをマウントする]を
選択し、次にドロップダウンリストから[スワップ]を選択します。
5f [完了]をクリックします。
6 ソフトウェアRAID1に使用する各デバイスの[1xFD Linux RAID]フォー
マットを設定します。
6a [エキスパートパーティショナ]ページの[ハードディスク]で、
RAID1で使用するデバイスを選択し、次に[ハードディスクパーティ
ション]タブの[追加]をクリックします。
6b [新しいパーティションの種類]で、[プライマリパーティション]
を選択し、次に[次へ]をクリックします。
6c [新しいパーティションのズサイズ]で、最大サイズの使用を指定
し、次に[次へ]をクリックします。
6d [フォーマットオプション]で、[パーティションをフォーマット
しない]を選択し、次にドロップダウンリストから[0xFD Linux
RAID]を選択します。
6e [マウントオプション]で、[パーティションをマウントしない]
を選択します。
6f [完了]をクリックします。
6g ソフトウェアRAIDで使用する各デバイスに、ステップ 6a (189 ページ)
からステップ 6f (189 ページ)を繰り返し実行します。1.
7 RAIDデバイスを作成します。
7a [システムビュー]パネルで、[RAID]を選択し、次に[RAID]
ページで[RAIDの追加]をクリックします。
ルートパーティション用のソフトウェアRAID1の設定
189
ステップ 6(189 ページ)で作成したデバイスが[使用可能なデバイス]
の一覧に表示されます。
7b [ [RAIDタイプ]で、[RAID 1 (ミラーリング)]を選択します。
7c [使用可能なデバイス]パネルで、RAIDに使用するデバイスを選択
し、次に[追加]をクリックして、[選択したデバイス]パネルに
デバイスを移動します。
RAID1用のデバイスを、2つ以上指定します。
ここでは一例として、RAID 1に2つのデバイスを選択します。
190
ストレージ管理ガイド
7d [次へ]をクリックします。
7e [RAIDオプション]で、ドロップダウンリストからチャンクサイズ
を選択します。
RAID 1(ミラーリング)のデフォルトチャンクサイズは4KBです。
使用可能なチャンクサイズは、4KB、8KB、16KB、32KB、64KB、
128KB、256KB、512KB、1MB、2MB、または4MBです。
7f [フォーマットのオプション]で、[パーティションをフォーマッ
トする]を選択し、次に[ファイルシステム]ドロップダウンリス
トからファイルシステムの種類(Ext3など)を選択します。
7g [マウントオプション]で、[パーティションをマウントする]を
選択し、次に[マウントポイント]ドロップダウンリストから、 /
を選択します。
7h [完了]をクリックします。
ルートパーティション用のソフトウェアRAID1の設定
191
ソフトウェアRAIDデバイスはデバイスマッパーによって管理され、
デバイスを/dev/md0パスの下に作成します。
8 [エキスパートパーティショナ]ページで、[受諾]をクリックします。
[インストールの設定]ページの[パーティション分割]の下に新しい提
案内容が表示されます。
たとえば、次のセットアップが表示されます。
9 インストールを続行します。
192
ストレージ管理ガイド
サーバを再起動するたびに、デバイスマッパーが起動時に開始し、ソフト
ウェアRAIDが自動的に認識され、ルート(/)パーティション上のオペレー
ティングシステムを開始することができます。
ルートパーティション用のソフトウェアRAID1の設定
193
10
mdadmによるソフトウェア
RAID 6および10の管理
このセクションでは、複数デバイス管理(mdadm(8))ツールで、ソフトウェア
RAID 6および10のデバイスを作成する方法を説明します。mdadmを使用する
と、RAID 0、1、4、および5も作成できます。mdadmツールは、レガシープロ
グラムmdtoolsおよびraidtoolsの機能を提供します。
• 10.1項 「RAID 6の作成」
(195 ページ)
• 10.2項 「mdadmによるネストしたRAID 10デバイスの作成」
• 10.3項 「コンプレックスRAID 10の作成」
• 10.4項 「ディグレードアレイの作成」
(197 ページ)
(203 ページ)
(214 ページ)
10.1 RAID 6の作成
• 10.1.1項 「RAID 6の理解」
(195 ページ)
• 10.1.2項 「RAID 6の作成」
(196 ページ)
10.1.1 RAID 6の理解
RAID 6は、本来、RAID 5の拡張であり、2つ目の独立した分散パリティスキー
ム(デュアルパリティ)の使用により、耐障害性をさらに追加します。データ回
mdadmによるソフトウェアRAID 6および10の管理
195
復プロセスで、2つのハードディスクドライブに障害が発生しても、システム
は稼動し続け、データが失われることはありません。
RAID 6は、複数の同時ドライブエラーに耐えることで、非常に高いデータ 耐
障害性を提供します。RAID 6は、データを失うことなく、2つのデバイスの喪
失を処理します。したがって、N個のドライブのデータを保存するには、N+2
個のドライブが必要です。その結果、最低限4個のデバイスが必要となりま
す。
通常モードおよび単一ディスク障害モードでは、RAID 5と比べ、RAID 6のパ
フォーマンスは若干低いですが、同程度です。デュアルディスク障害モード
では、RAID 6は非常に低速です。
表 10.1 RAID 5とRAID 6の比較
機能
RAID 5
RAID 6
デバイスの数
N+1(最小限3個)
N+2(最小限4個)
パリティ
分散型、シングル
分散型、デュアル
パフォーマンス
書き込みおよび再構
築に中程度の影響
シーケンシャルな書
き込みでは、RAID 5
より影響大
耐障害性
1つのコンポーネント
デバイスの障害
2つのコンポーネント
デバイスの障害
10.1.2 RAID 6の作成
このセクションのプロシージャでは、RAID 6デバイス/dev/md0を4つのデバ
イスで作成します(/dev/sda1、/dev/sdb1、/dev/sdc1、/dev/sdd1)。
必ず、プロシージャを変更して、実際のデバイスノードを使用するようにし
てください。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
196
ストレージ管理ガイド
2 RAID 6デバイスを作成します。コマンドプロンプトで、次のように入力し
ます
mdadm --create /dev/md0 --run --level=raid6 --chunk=128 --raid-devices=4
/dev/sdb1 /dev/sdc1 /dev/sdc1 /dev/sdd1
デフォルトのチャンクサイズは 64KBです。
3 RAID 6デバイス/dev/md0上でファイルシステム(Reiserファイルシステム
など)を作成します。たとえば、コマンドプロンプトで、次のように入力し
ます。
mkfs.reiserfs /dev/md0
これとは別のファイルシステムを使用したい場合は、コマンドを変更しま
す。
4 /etc/mdadm.confファイルを編集して、コンポーネントデバイスとRAID
デバイス /dev/md0のエントリを追加します。
5 /etc/fstabファイルを編集して、RAID 6デバイス /dev/md0のエントリ
を追加します。
6 サーバを再起動します。
RAID 6デバイスが/localにマウントされます。
7 RAIDアレイにホットスペアを追加します(オプション)。たとえば、コマン
ドプロンプトで、次のように入力します。
mdadm /dev/md0 -a /dev/sde1
10.2 mdadmによるネストしたRAID 10
デバイスの作成
• 10.2.1項 「ネストしたRAIDデバイスの理解」 (198 ページ)
mdadmによるソフトウェアRAID 6および10の管理
197
• 10.2.2項 「mdadmによるネストしたRAID 10 (1+0)デバイスの作成」
(200 ページ)
• 10.2.3項 「mdadmによるネストしたRAID 10 (0+1)デバイスの作成」
(201 ページ)
10.2.1 ネストしたRAIDデバイスの理解
ネストしたRAIDデバイスは、物理ディスクを使用する代わりに、その基本エ
レメントとして別のRAIDアレイを使用するRAIDアレイで構成されます。こ
の構成の目的は、RAIDのパフォーマンスと耐障害性を向上することです。
Linuxは、RAID 1 (ミラーリング)アレイとRAID 0 (ストライピング)アレイのネ
ストをサポートします。一般に、この組み合わせは、RAID 10と呼ばれます。
ネストの順序を区別するため、このマニュアルでは、次の用語を使用します。
• RAID 1+0: まず、RAID 1(ミラー)アレイが構築され、次に、それらのア
レイが組み合わされてRAID 0 (ストライプ)アレイを構成します。
• RAID 0+1: まず、RAID 0(ストライプ)アレイが構築され、次に、それら
のアレイが組み合わされてRAID 1(ミラー)アレイを構成します。
次のテーブルでは、RAID 10ネスティングの欠点と利点を、1+0対0+1という
形式で説明します。使用するストレージオブジェクトは、それぞれが専用の
I/Oをもつ別々のディスクに常駐すると想定しています。
表 10.2 ネストしたRAIDレベル
198
RAID
レベ
ル
説明
パフォーマンスと耐障害性
10
(1+0)
RAID 1(ミ
ラー)アレ
イで構築
された
RAID (ス
トライプ)
RAID 1+0は、高レベルのI/Oパフォーマンス、デー
タ冗長性、およびディスク耐障害性を提供しま
す。RAIDの各メンバーデバイスは個々にミラー
リングされるので、エラーになったディスクのミ
ラー先が異なる限り、複数ディスクの障害を許容
し、データを使用することができます。
ストレージ管理ガイド
RAID
レベ
ル
説明
パフォーマンスと耐障害性
オプションとして、ベースをなすミラーリングさ
れたアレイごとにスペアを設定したり、すべての
ミラーに対するスペアグループに対応するスペア
を設定できます。
10
(0+1)
RAID 0(ス
トライプ)
アレイで
構築され
たRAID
1(ミラー)
RAID 0+1は、高レベルのI/Oパフォーマンスとデー
タ冗長性を提供しますが、耐障害性が1+0より若
干低くなります。ミラーの一方のサイドで複数の
ディスクがエラーになると、もう一方のミラーが
使用可能になります。ただし、ミラーの両サイド
で同時にディスクが失われると、すべてのデータ
が喪失します。
このソリューションは1+0ソリューションより耐
障害性が低いですが、別のサイトで保守を実行し
たり、ミラーを保持する必要がある場合、ミラー
のサイド全体をオフラインにしても、完全に機能
するストレージデバイスを保持することができま
す。また、2つのサイト間の接続が失われた場合
は、どちらかのサイトがもう一方のサイトから独
立して稼動します。ミラーリングされたセグメン
トをストライプする場合はこうなりません。ミ
ラーが低レベルで管理されているからです。
デバイスがエラーになると、RAID 0には耐障害性
がないので、そのサイドのミラーがエラーになり
ます。新しいRAID 0を作成して、エラーになった
サイドに置き換え、次に、ミラーを再同期してく
ださい。
mdadmによるソフトウェアRAID 6および10の管理
199
10.2.2 mdadmによるネストしたRAID 10
(1+0)デバイスの作成
ネストしたRAID 1+0は、2つ以上のRAID 1(ミラー)デバイスを作成し、それら
のRAID 1デバイスをRAID 0のコンポーネントデバイスとして使用することで
構築します。
重要
デバイスに対する複数の接続を管理する必要がある場合は、マルチパスI/O
を設定してから、RAIDデバイスを設定する必要があります。詳細について
は、第7章 デバイスのマルチパスI/Oの管理 (89 ページ)を参照してくださ
い。
このセクションのプロシージャでは、次のテーブルに示すデバイス名を使用
します。それらのデバイス名は、必ず、ご使用のデバイスの名前で変更して
ください。
表 10.3 ネスティングでRAID 10(1+0)を作成するシナリオ
rawデバイス
RAID 1(ミラー)
RAID 1+0(ストライピ
ングミラー)
/dev/sdb1
/dev/sdc1
/dev/md0
/dev/md2
/dev/sdd1
/dev/sde1
/dev/md1
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 RAID 1デバイスごとに2つの異なるデバイスを使用して、2つのソフトウェ
アRAID 1デバイスを作成します。コマンドプロンプトで、次の2つのコマ
ンドを入力します。
mdadm --create /dev/md0 --run --level=1 --raid-devices=2 /dev/sdb1 /dev/sdc1
200
ストレージ管理ガイド
mdadm --create /dev/md1 --run --level=1 --raid-devices=2 /dev/sdd1 /dev/sde1
3 ネストしたRAID 1+0デバイスを作成します。コマンドプロンプトで、ス
テップ 2 (200 ページ)で作成したソフトウェアRAID 1デバイスを使用して、
次のコマンドを入力します。
mdadm --create /dev/md2 --run --level=0 --chunk=64 --raid-devices=2 /dev/md0
/dev/md1
デフォルトのチャンクサイズは 64KBです。
4 RAID 1+0デバイス/dev/md2上で、Reiser(reiserfs)などのファイルシステム
を作成します。たとえば、コマンドプロンプトで、次のように入力します。
mkfs.reiserfs /dev/md2
これとは別のファイルシステムを使用したい場合は、コマンドを変更しま
す。
5 /etc/mdadm.confファイルを編集して、コンポーネントデバイスとRAID
デバイス/dev/md2のエントリを追加します。
6 /etc/fstabファイルを編集して、RAID 1+0デバイス /dev/md2のエント
リを追加します。
7 サーバを再起動します。
RAID 1+0デバイスが/localにマウントされます。
10.2.3 mdadmによるネストしたRAID 10
(0+1)デバイスの作成
ネストしたRAID 0+1は、2個から4個のRAID 0(ストライプ)デバイスで構築さ
れ、それらのRAID 0デバイスをミラーリングしてRAID 1のコンポーネントデ
バイスとします。
mdadmによるソフトウェアRAID 6および10の管理
201
重要
デバイスに対する複数の接続を管理する必要がある場合は、マルチパスI/O
を設定してから、RAIDデバイスを設定する必要があります。詳細について
は、第7章 デバイスのマルチパスI/Oの管理 (89 ページ)を参照してくださ
い。
この構成では、RAID 0がデバイスの喪失に耐えられないので、ベースのRAID
0デバイスにスペアデバイスを指定できません。デバイスがミラーの1つのサ
イドでエラーになった場合は、置き換え用のRAID 0デバイスを作成して、ミ
ラーに追加します。
このセクションのプロシージャでは、次のテーブルに示すデバイス名を使用
します。それらのデバイス名は、必ず、ご使用のデバイスの名前で変更して
ください。
表 10.4 ネストによるRAID 10 (0+1)作成のシナリオ
rawデバイス
RAID 0 (ストライプ)
RAID 0+1 (ミラー化ス
トライピング)
/dev/sdb1
/dev/sdc1
/dev/md0
/dev/md2
/dev/sdd1
/dev/sde1
/dev/md1
1 端末コンソールを開いて、rootユーザまたは同等の権限で、ログインしま
す。
2 RAID 0デバイスごとに2つの異なるデバイスを使用して、2つのソフトウェ
アRAID 0デバイスを作成します。コマンドプロンプトで、次の2つのコマ
ンドを入力します。
mdadm --create /dev/md0 --run --level=0 --chunk=64 --raid-devices=2 /dev/sdb1
/dev/sdc1
mdadm --create /dev/md1 --run --level=0 --chunk=64 --raid-devices=2 /dev/sdd1
/dev/sde1
202
ストレージ管理ガイド
デフォルトのチャンクサイズは 64KBです。
3 ネストしたRAID 0+1デバイスの作成コマンドプロンプトで、ステップ
2 (202 ページ)で作成したソフトウェアRAID 0デバイスを使用して、次のコ
マンドを入力します。
mdadm --create /dev/md2 --run --level=1 --raid-devices=2 /dev/md0 /dev/md1
4 RAID 0+1デバイス/dev/md2上で、Reiser(reiserfs)などのファイルシステム
を作成します。たとえば、コマンドプロンプトで、次のように入力します。
mkfs.reiserfs /dev/md2
これとは別のファイルシステムを使用したい場合は、コマンドを変更しま
す。
5 /etc/mdadm.confファイルを編集して、コンポーネントデバイスとRAID
デバイス/dev/md2のエントリを追加します。
6 /etc/fstabファイルを編集して、RAID 0+1デバイス/dev/md2のエント
リを追加します。
7 サーバを再起動します。
RAID 0+1デバイスが/localにマウントされます。
10.3 コンプレックスRAID 10の作成
• 10.3.1項 「コンプレックスRAID10の理解」 (204 ページ)
• 10.3.2項 「mdadmによるコンプレックスRAID 10の作成」
(208 ページ)
• 10.3.3項 「YaSTパーティショナ付きコンプレックスRAID 10の作成 」
(210 ページ)
mdadmによるソフトウェアRAID 6および10の管理
203
10.3.1 コンプレックスRAID10の理解
mdadmでは、RAID10レベルで、RAID 0(ストライピング)とRAID 1(ミラーリ
ング)の両方の機能を組み合わせた単一の複雑なソフトウェアRAIDが作成され
ます。すべてのデータブロックの複数のコピーが、ストライピングの規則に
従って、複数のドライブ上に配置されます。コンポーネントデバイスは、す
べて同じサイズにする必要があります。
• 10.3.1.1項 「コンプレックスRAID10とネストしたRAID 10 (1+0)の比較」
(204 ページ)
• 10.3.1.2項 「コンプレックスRAID10のレプリカ数」
(205 ページ)
• 10.3.1.3項 「コンプレックスRAID10のデバイス数」
(206 ページ)
• 10.3.1.4項 「nearレイアウト」
• 10.3.1.5項 「farレイアウト」
(206 ページ)
(207 ページ)
• 10.3.1.6項 「offsetレイアウト」
(207 ページ)
10.3.1.1 コンプレックスRAID10とネストしたRAID 10
(1+0)の比較
コンプレックスRAID は、ネストしたRAID 10 (1+0)と目的は同じですが、次
の点で異なります。
表 10.5 コンプレックスRAID 10対ネストしたRAID 10
204
機能
コンプレックス
RAID10
ネストしたRAID
10(1+0)
デバイスの数
偶数個または奇数個
のコンポーネントデ
バイス
偶数個のコンポーネ
ントデバイス
コンポーネントデバ
イス
単一のRAIDデバイス
として管理されま
す。
ネストしたRAIDデバ
イスとして管理され
ます。
ストレージ管理ガイド
機能
コンプレックス
RAID10
ネストしたRAID
10(1+0)
ストライピング
ストライピングは、
コンポーネントデバ
イス上にnearレイアウ
トまたはfarレイアウ
トを生じます。
ストライピングは、
連続的に、すべての
コンポーネントデバ
イスをまたぎます。
farレイアウトでは、
RAID 1ペアの数でな
く、ドライブ数で増
減するシーケンシャ
ルな読み込みスルー
プットを提供しま
す。
データの複数コピー
2からアレイ内のデバ
イス数まで
ミラーリングされた
セグメントごとにコ
ピー
ホットスペアデバイ
ス
単一スペアですべて
のコンポーネントデ
バイスに対応できま
す。
ベースをなすミラー
リングされたアレイ
ごとにスペアを設定
したり、すべてのミ
ラーに対応するスペ
アグループに対する
スペアを設定できま
す。
10.3.1.2 コンプレックスRAID10のレプリカ数
コンプレックスRAID10アレイの設定時に、データブロックごとに必要なレプ
リカ数を指定する必要があります。デフォルトのレプリカ数は2ですが、2か
らアレイ内のデバイス数まで可能です。
mdadmによるソフトウェアRAID 6および10の管理
205
10.3.1.3 コンプレックスRAID10のデバイス数
少なくとも、指定のレプリカ数と同数のコンポーネントデバイスを使用する
必要があります。ただし、RAID10アレイのコンポーネントデバイス数は各
データブロックのレプリカ数の倍数である必要はありません。有効なストレー
ジサイズは、デバイス数をレプリカ数で割った数です。
たとえば、5個のコンポーネントデバイスで作成したアレイに2つのレプリカ
を指定した場合は、各ブロックのコピーが2つの異なるデバイスに保存されま
す。したがって、すべてのデータの1コピーの有効なストレージサイズは、
5/2(つまり、コンポーネントデバイスのサイズの2.5倍)となります。
10.3.1.4 nearレイアウト
nearレイアウトでは、異なるコンポーネントデバイス上で、データブロックの
コピーが互いに接近してストライプされます。つまり、あるデータブロック
の複数のコピーが異なるデバイス内で同様にオフセットされます。nearは、
RAID10のデフォルトレイアウトです。たとえば、奇数個のコンポーネントデ
バイスとデータの2コピーを使用する場合は、一部のコピーが、1チャンク分、
デバイス内を前進します。
mdadm RAID 10のnearレイアウトは、半数のドライブ上のRAID 0と同様の読
み書きパフォーマンスを提供します。
偶数個のディスクと2つのレプリカを使用したnearレイアウト
sda1 sdb1 sdc1 sde1
0
0
1
1
2
2
3
3
4
4
5
5
6
6
7
7
8
8
9
9
奇数個のディスクと2つのレプリカを使用したnearレイアウト
sda1 sdb1 sdc1 sde1 sdf1
0
0
1
1
2
2
3
3
4
4
5
5
6
6
7
7
8
8
9
9
10
10
11
11
12
206
ストレージ管理ガイド
10.3.1.5 farレイアウト
farレイアウトは、すべてのドライブの前半部分にデータをストライプし、次
に、2つ目のデータコピーをすべてのドライブの後半部分にストライプして、
ブロックのすべてのコピーが異なるドライブに配置されるようにします。値
の2つ目のセットは、コンポーネントドライブの中ほどから開始します。
farレイアウトでは、mdadm RAID10の読み込みパフォーマンスは、すべての
ドライブを使用したRAID 0と同様ですが、書き込みパフォーマンスは、ドラ
イブヘッドのシーク回数が増えるので、RAID 0よりかなり遅くなります。こ
のレイアウトは、 読み込み専用ファイルサーバなどの、読み込み集約型操作
に最適です。
raid10の書き込み速度は、付近のレイアウトを使用しているraid1やraid0などの
他のミラーリングRAIDの種類と同等です。これは、ファイルシステムのエレ
ベータが生の書き込みよりも効率のよい書き込みのスケジュールを行うため
です。Raid10をfarレイアウトで使用する方法は、ミラーリングによる書き込
みアプリケーションに適しています。
偶数個のディスクと2つのレプリカを使用したfarレイアウト
sda1 sdb1 sdc1 sde1
0
1
2
3
4
5
6
7
. . .
3
0
1
2
7
4
5
6
奇数個のディスクと2つのレプリカを使用したfarレイアウト
sda1 sdb1 sdc1 sde1 sdf1
0
1
2
3
4
5
6
7
8
9
. . .
4
0
1
2
3
9
5
6
7
8
10.3.1.6 offsetレイアウト
offsetレイアウトでは、あるチャンクの複数のコピーが連続したドライブ上で
連続したオフセットにレイアウトされるよう、ストライプが複製されます。
実際は、それぞれのストライプが複製され、コピーが1つのデバイスでオフ
mdadmによるソフトウェアRAID 6および10の管理
207
セットされます。これにより、適度な大きさのチャンクサイズを使用してい
る場合は、farレイアウトと同様の読み込み特性が得られますが、書き込みの
シーク回数は少なくなります。
偶数個のディスクと2つのレプリカを使用したoffsetレイアウト
sda1 sdb1 sdc1 sde1
0
1
2
3
3
0
1
2
4
5
6
7
7
4
5
6
8
9
10
11
11
8
9
10
奇数個のディスクと2つのレプリカを使用したoffsetレイアウト
sda1 sdb1 sdc1 sde1 sdf1
0
1
2
3
4
4
0
1
2
3
5
6
7
8
9
9
5
6
7
8
10
11
12
13
14
14
10
11
12
13
10.3.2 mdadmによるコンプレックスRAID 10
の作成
mdadmのRAID10オプションでは、ネストなしのRAID 10デバイスが作成され
ます。RAID10については、10.3.1項 「コンプレックスRAID10の理
解」 (204 ページ)を参照してください。
このセクションのプロシージャでは、次のテーブルに示すデバイス名を使用
します。それらのデバイス名は、必ず、ご使用のデバイスの名前で変更して
ください。
表 10.6 mdadm RAID10オプションでRAID 10を作成するシナリオ
208
rawデバイス
RAID10(near/farストライピングス
キーム)
/dev/sdf1
/dev/md3
ストレージ管理ガイド
rawデバイス
RAID10(near/farストライピングス
キーム)
/dev/sdg1
/dev/sdh1
/dev/sdi1
1 YaSTで、RAIDで使用したいデバイス(/dev/sdf1、/dev/sdg1、/dev/
sdh1、/dev/sdi1など)に0xFD Linux RAIDパーティションを作成します。
2 端末コンソールを開いて、rootユーザまたは同等の権限で、ログインしま
す。
3 RAID 10 コマンドを作成します。コマンドプロンプトで、次のように入力
します(すべて同じ行)。
mdadm --create /dev/md3 --run --level=10 --chunk=4 --raid-devices=4 /dev/sdf1
/dev/sdg1 /dev/sdh1 /dev/sdi1
4 RAID 10デバイス /dev/md3上にReiserファイルシステムを作成します。コ
マンドプロンプトで、次のように入力します
mkfs.reiserfs /dev/md3
5 /etc/mdadm.confファイルを編集して、コンポーネントデバイスとRAID
デバイス/dev/md3のエントリを追加します。次に例を示します。
DEVICE /dev/md3
6 /etc/fstabファイルを編集して、RAID 10デバイス /dev/md3のエント
リを追加します。
7 サーバを再起動します。
RAID 10デバイスが/raid10にマウントされます。
mdadmによるソフトウェアRAID 6および10の管理
209
10.3.3 YaSTパーティショナ付きコンプレック
スRAID 10の作成
1 rootユーザとしてYaSTを起動して、パーティショナを開きます。
2 [ハードディスク]を選択して、利用可能なディスク(sdab、sdc、sdd、sde
など)を確認します。
3 ソフトウェアRAIDで使用する予定の各ディスクについて、RAIDパーティ
ションをデバイス上に作成します。それぞれのパーティションは、同じサ
イズである必要があります。RAID 10デバイスに対して、以下を行う必要
があります。
3a [ハードディスク]で、デバイスを選択し、次に右側のパネルで
[パーティション]を選択します。
3b [追加]をクリックして、[パーティションを追加]ウィザードを
開きます。
3c [新しいパーティションの種類]で、[プライマリパーティション]
を選択し、次に[次へ]をクリックします。
3d [新しいパーティションのサイズ]で、このディスク上のRAIDパー
ティションの希望のサイズを指定し、次に[次へ]をクリックしま
す。
3e [フォーマットオプション]で、[パーティションをフォーマット
しない]を選択し、次に[ファイルシステムID]ドロップダウンリ
ストから[0xFD Linux RAID]を選択します。
3f [マウントオプション]で、[パーティションマウントしない]を
選択し、次に[完了]をクリックします。
3g 上記の手順を、RAID 10デバイスで使用する予定のディスク上のRAID
パーティションを定義し終わるまで、繰り返します。
4 RAID 10デバイスを作成します。
210
ストレージ管理ガイド
4a [RAID]を選択し、次に右側のパネルで[RAIDを追加]を選択し
て、[RAIDの追加]ウィザードを開きます。
4b [ [RAIDタイプ]で、[RAID 10 (ミラーリングおよびストライピン
グ)]を選択します。
4c [利用可能なデバイス]リストで、希望のLinux RAIDパーティショ
ンを選択し、次に[追加]をクリックして、それらを[選択したデ
バイス]リストに移動します。
4d (オプション)[Classify]をクリックして、RAIDアレイ内でのディス
クの好みの順番を指定します。
追加したディスクの順番が重要となるRAIDタイプの場合は、アレイ
の半分が1つのディスクサブシステムに、もう半分が別のディスクサ
ブシステムに置かれるよう、デバイスが使用される順番を指定する
ことができます。たとえば、1つのディスクサブシステムに障害が発
生した場合、システムは2番目のディスクサブシステムから稼働し続
けます。
mdadmによるソフトウェアRAID 6および10の管理
211
4di 各ディスクを順番に選択して、[Class X]ボタンのいずれか
をクリックします。ここで、Xは、そのディスクに割り当てる
文字です。用意されているクラスはA、B、C、DおよびEです
が、多くの場合必要なクラスはそれより少ないです(たとえば
AとBのみ)。 このようにして、すべての利用可能なRAIDディ
スクを割り当てます。
複数の を選択するには、CtrlキーまたはShiftキーを押します。
選択したデバイスを右クリックして、コンテキストメニュー
から適切なクラスを選択することもできます。
4dii 次のソートオプションのいずれかを選択して、デバイスの順
序を指定します。
Sorted: クラスAのすべてのデバイスを、クラスBのすべての
デバイスより前に、というように並べます。例: AABBCC。
Interleaved: クラスAの最初のデバイス、次にクラスBの最初
のデバイス、次にデバイスが割り当てられたすべての後続の
クラスの順に、デバイスを並べます。次にクラスAの2番目の
デバイス、クラスBの2番目のデバイス、というように続きま
す。クラスを持たないデバイスはすべて、デバイスリストの
最後に並べられます。例: ABCABC。
Pattern File: それぞれが正規表現とクラス名である、複数の行
を含む既存のファイルを選択します("sda.* A")。その正規
表現に合致するすべてのデバイスが、その行に指定されたク
ラスに割り当てられます。正規表現は、カーネル名(/dev/
sda1)、udevパス名(/dev/disk/by-path/pci-0000:00:
1f.2-scsi-0:0:0:0-part1)、次にudev ID (/dev/disk/byid/ata-ST3500418AS_9VMN8X8L-part1)に対して照合されます。
デバイスの名前が、2つ以上の正規表現に合致する場合は、最
初に合致したものでクラスが決定されます。
4diii ダイアログボックスの下で、[OK]をクリックして、順番を
確定します。
212
ストレージ管理ガイド
4e [次へ]をクリックします。
4f [ [RAIDオプション]で、[チャンクサイズ]と[パリティアルゴ
リズム]を指定し、次に[次へ]をクリックします。
RAID 10の場合、パリティオプションは、n (near)、f (far)、およびo
(offset)です。数字は、必要となる各データブロックのレプリカの数
を示します。2がデフォルトの設定です。詳細については、10.3.1項
「コンプレックスRAID10の理解」 (204 ページ)を参照してください。
4g ファイルシステムとマウントオプションをRAIDデバイスに追加し
て、[完了]をクリックします。
5 [RAID]を選択し、新たに作成されたRAIDデバイスを選択してから、[使
用するデバイス]をクリックして、そのパーティションを確認します。
mdadmによるソフトウェアRAID 6および10の管理
213
6 [次へ]をクリックします。
7 変更する内容を確認して、[完了]をクリックすると、RAIDが作成されま
す。
10.4 ディグレードアレイの作成
ディグレードアレイは、一部のデバイスが欠けたアレイです。ディグレード
アレイは、RAID 1、RAID 4、RAID 5、およびRAID 6に対してのみサポートさ
れています。これらのRAIDタイプは、その耐障害性機能として、一部のデバ
イスの欠落に耐えるように設計されています。通常、デバイスに障害が発生
すると、ディグレードアレイが生成されます。ディグレードアレイは、意図
的に作成するすることもできます。
214
ストレージ管理ガイド
RAIDの種類
許容可能な欠落ス
ロット数
RAID 1
1つ以外の全スロット
RAID 4
1スロット
RAID 5
1スロット
RAID 6
1個または2個のス
ロット
一部のデバイスが欠落したディグレードアレイを作成するには、単に、デバ
イス名の代わりにmissingというワードを指定します。この指定により、
mdadmは、アレイ内の対応するスロットを空のまま残します。
RAID 5アレイの作成時に、mdadmによって、余分なスペアドライブをもつディ
グレードアレイが自動的に作成されます。これは、一般に、ディグレードア
レイ内にスペアを構築した方が、ディグレードアレイではないが正常でない
アレイ上でパリティを再同期するより高速なためです。この機能は、--force
オプションで無効にできます。
RAIDを作成したいが、使用するデバイスの1つに既にデータが入っている場
合は、ディグレードアレイを作成すると便利なことがあります。その場合は、
他のデバイスでディグレードアレイを作成し、その使用中のデバイスからの
データをディグレードモードで実行中のRAIDにコピーし、デバイスをRAID
に追加して、RAIDの再構築まで待機すると、データがすべてのデバイスに行
き渡ります。このプロセスの例を、次のプロシージャで示します。
1 ディグレードRAID 1デバイス/dev/md0を単一ドライブ/dev/sd1で作成
します。コマンドプロンプトで、次のように入力してください。
mdadm --create /dev/md0 -l 1 -n 2 /dev/sda1 missing
追加先のデバイスは、追加するデバイスと同じか、またはそれ以上のサイ
ズをもつ必要があります。
mdadmによるソフトウェアRAID 6および10の管理
215
2 ミラーに追加したいデバイスに、RAIDアレイに移動したいデータが含まれ
ている場合は、この時点で、そのデータを、ディグレードモードで実行中
のRAIDアレイにコピーします。
3 デバイスをミラーに追加します。たとえば、add /dev/sdb1をRAIDに追加
するには、コマンドプロンプトで、次のように入力します。
mdadm /dev/md0 -a /dev/sdb1
一度に1つのデバイスしか追加できます。カーネルがミラーを構築し、完全
にオンラインにした後、別のミラーを追加できます。
4 構築の進捗状況を監視するには、コマンドプロンプトで、次のように入力
します。
cat /proc/mdstat
毎秒更新されている間に再構築の進捗を確認するには、次のように入力し
ます。
watch -n 1 cat /proc/mdstat
216
ストレージ管理ガイド
11
mdadmによるソフトウェア
RAIDアレイのサイズ変更
このセクションでは、ソフトウェアRAID 1、4、5、または6のデバイスのサイ
ズを複数デバイス管理(mdadm(8))ツールで増減する方法について説明しま
す。
警告
このセクションに示されたタスクを開始する前に、すべてのデータに有効
なバックアップがあることを確認してください。
• 11.1項 「サイズ変更プロセスの理解」
(217 ページ)
• 11.2項 「ソフトウェアRAIDのサイズの増加」
(220 ページ)
• 11.3項 「ソフトウェアRAIDのサイズの削減」
(227 ページ)
11.1 サイズ変更プロセスの理解
既存のソフトウェアRAIDデバイスのサイズ変更には、各コンポーネントパー
ティションが提供するスペースの増減が必要です。
• 11.1.1項 「ソフトウェアRAIDサイズ変更のガイドライン 」
• 11.1.2項 「タスクの概要」
(218 ページ)
(219 ページ)
mdadmによるソフトウェアRAIDアレイのサイズ変更
217
11.1.1 ソフトウェアRAIDサイズ変更のガイド
ライン
mdadm(8)ツールは、ソフトウェアRAIDレベル1、4、5、および6に対してだ
けサイズ変更をサポートします。これらのRAIDレベルには耐障害性があるの
で、一度に1つづつ、サイズ変更するコンポーネントパーティションを削除で
きます。原則として、RAIDパーティションのホットリサイズが可能ですが、
その場合は、データの保全に特に注意する必要があります。
デバイス上の使用可能スペースで変更内容を利用するために、RAIDに常駐す
るファイルシステムもサイズ変更できる必要があります。SUSE® Linux
Enterprise Server 11では、ファイルシステムExt2、Ext3、およびReiserFSに対し
て、ファイルシステムのサイズ変更ユーティリティを使用できます。このユー
ティリティは、次のようにサイズの増減をサポートします。
表 11.1 ファイルシステムサイズ変更のサポート
ファイルシス
テム
ユーティリ
ティ
サイズを増加
サイズを減少
Ext2またはExt3
resize2fs
はい(ただし、
オフラインの
み)
はい(ただし、
オフラインの
み)
ReiserFS
resize_reiserfs
はい(オンライ
ンまたはオフ
ライン)
はい(ただし、
オフラインの
み)
パーティションまたはファイルシステムのサイズ変更には、データを失う可
能性をはらむリスクが伴います。
警告
データの喪失を避けるには、データを必ずバックアップしてから、サイズ
変更タスクを開始します。
218
ストレージ管理ガイド
11.1.2 タスクの概要
RAIDのサイズ変更には、次のようなタスクがあります。タスクの実行順序
は、サイズを増加するか、減少するかによって異なります。
表 11.2 RAIDのサイズ変更に必要なタスク
仕事
説明
サイ
ズを
増大
させ
る場
合の
順序
サイ
ズを
減少
させ
る場
合の
順序
各コンポーネ
ントパーティ
ションのサイ
ズを変更しま
す。
各コンポーネントパーティション
のアクティブなサイズを増加また
は減少します。一度に1つのコン
ポーネントパーティションだけを
削除し、そのサイズを変更してか
ら、パーティションをRAIDに戻し
ます。
1
2
ソフトウェア
RAID自体をサ
イズ変更しま
す。
RAIDは、ベースのコンポーネント
パーティションの増減を自動的に
は認識しません。したがって、
RAIDに新しいサイズを知らせる必
要があります。
2
3
ファイルシス
テムのサイズ
を変更しま
す。
RAIDに常駐するファイルシステム
をサイズ変更する必要がありま
す。これは、サイズ変更のツール
を提供するファイルシステムの場
合のみ可能です(Ext2、Ext3、
ReiserFSなど)。
3
1
mdadmによるソフトウェアRAIDアレイのサイズ変更
219
11.2 ソフトウェアRAIDのサイズの増
加
始める前に、11.1項 「サイズ変更プロセスの理解」 (217 ページ)のガイドライ
ンをレビューしてください。
• 11.2.1項 「コンポーネントパーティションのサイズの増加」 (220 ページ)
• 11.2.2項 「RAIDアレイのサイズの増加」 (222 ページ)
• 11.2.3項 「ファイルシステムのサイズの増加」 (224 ページ)
11.2.1 コンポーネントパーティションのサイ
ズの増加
RAID 1、4、5、または6のサイズを増加するには、このセクションのプロシー
ジャを適用します。RAID内のコンポーネントパーティションごとに、RAID
からパーティションを削除し、そのサイズを変更し、パーティションをRAID
に戻し、RAIDが安定するまで待機してから続行します。パーティションが削
除されている間、RAIDはディグレードモードで動作し、ディスクの 耐障害性
がまったくないか、または低下しています。複数の同時ディスク障害を許容
できるRAIDの場合でも、一度に2つ以上のパーティションを削除しないでく
ださい。
警告
RAIDに、ディスクの耐障害性がないか、単に一貫性がない場合、パーティ
ションのどれかを削除すると、データが失われます。パーティションの削
除は注意深く行い、必ず、データのバックアップをとってください。
このセクションのプロシージャでは、次のテーブルに示すデバイス名を使用
します。これらの名前は変更して、必ずご使用のデバイスの名前を使用して
ください。
220
ストレージ管理ガイド
表 11.3 コンポーネントパーティションのサイズを増加するシナリオ
RAIDデバイス
コンポーネントパーティション
/dev/md0
/dev/sda1
/dev/sdb1
/dev/sdc1
RAID用コンポーネントパーティションのサイズを増加するには:
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 次のように入力して、RAIDアレイが一貫性を保っており、同期されている
ことを確認します。
cat /proc/mdstat
このコマンドの出力によって、RAIDアレイがまだ同期中とわかる場合は、
同期化の完了まで待って、続行してください。
3 コンポーネントパーティションの1つをRAIDアレイから削除します。たと
えば、次のように入力して、/dev/sda1を削除します。
mdadm /dev/md0 --fail /dev/sda1 --remove /dev/sda1
成功するためには、failとremoveの両方のアクションが行われる必要があり
ます。
4 次のオプションの1つを実行して、ステップ 3 (221 ページ)で削除したパー
ティションのサイズを増加します。
• fdisk(8)、cfdisk(8)、parted(8)などのディスクパーティショナを
使用して、パーティションのサイズを増加します。通常は、このオプショ
ンが選択されます。
• パーティションの常駐ディスクを、容量のより大きいデバイスに置き換
えます。
mdadmによるソフトウェアRAIDアレイのサイズ変更
221
このオプションは、元ディスクの他のファイルシステムがシステムによ
りアクセスされない場合だけ選択できます。置き換え用デバイスをRAID
に追加すると、元のデバイスにあったデータをすべて再構築しなければ
ならないので、データの同期にはるかに長い時間がかかります。
5 パーティションをRAIDアレイに再追加します。たとえば、次のように入力
して、/dev/sda1を追加します。
mdadm -a /dev/md0 /dev/sda1
RAIDが同期され、一貫性をもつまで待機してから、次のパーティションの
処理に進みます。
6 アレイ内の残りのコンポーネントデバイスごとに、ステップ 2 (221 ページ)
からステップ 5 (222 ページ)まで繰り返します。正しいコンポーネントパー
ティションに対して、必ずコマンドを変更してください。
7 カーネルがRAIDのパーティションテーブルを再読み込みできないという
メッセージが表示されたら、すべてのパーティションのサイズ変更後にコ
ンピュータを再起動して、パーティションテーブルの更新を強制する必要
があります。
8 11.2.2項 「RAIDアレイのサイズの増加」 (222 ページ)に進みます。
11.2.2 RAIDアレイのサイズの増加
RAID内の各コンポーネントパーティションのサイズ変更後(11.2.1項 「コン
ポーネントパーティションのサイズの増加」 (220 ページ)参照)も、新しい使用
可能スペースの認識を強制するまで、RAIDアレイの設定では、元のアレイサ
イズが使用され続けます。RAIDアレイのサイズを指定したり、使用可能な最
大スペースを使用できます。
このセクションのプロシージャでは、RAIDデバイスのデバイス名として //
dev/md0を使用しています。この名前は変更して、必ずご使用のデバイスの
名前を使用してください。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
222
ストレージ管理ガイド
2 次のように入力して、アレイのサイズとアレイに認識されるデバイスサイ
ズをチェックします。
mdadm -D /dev/md0 | grep -e "Array Size" -e "Device Size"
3 次のいずれかの操作を行います。
• 次のように入力して、アレイサイズを使用可能な最大サイズまで増加し
ます。
mdadm --grow /dev/md0 -z max
• 次のように入力して、アレイサイズを使用可能な最大サイズまで増加し
ます。
mdadm --grow /dev/md0 -z max --assume-clean
アレイは、デバイスに追加されたスペースを利用しますが、このスペー
スは同期されません。これがRAID1に推奨される理由は、同期が不要だ
からです。メンバーデバイスに追加されたスペースが事前にゼロ化され
ていれば、他のRAIDレベルに有用なことがあります。
• 次のように入力して、アレイサイズを指定の値まで増加します。
mdadm --grow /dev/md0 -z size
sizeを、キロバイト(1キロバイトは1024バイト)単位で目的のサイズを表
す整数値で置き換えます。
4 次のように入力して、アレイのサイズとアレイに認識されるデバイスサイ
ズを再チェックします。
mdadm -D /dev/md0 | grep -e "Array Size" -e "Device Size"
5 次のいずれかの操作を行います。
• アレイのサイズ変更が成功していたら、11.2.3項 「ファイルシステムの
サイズの増加」 (224 ページ)を続行します。
mdadmによるソフトウェアRAIDアレイのサイズ変更
223
• アレイが予期どおりにサイズ変更されていない場合は、いったん再起動
してから、このプロシージャを再試行する必要があります。
11.2.3 ファイルシステムのサイズの増加
アレイサイズの増加後は (11.2.2項 「RAIDアレイのサイズの増加」 (222 ページ)
参照)、ファイルシステムのサイズ変更ができます。
ファイルシステムのサイズを使用可能な最大スペースまで増加したり、正確
なサイズを指定できます。ファイルシステムに正確なサイズを指定する場合
は、その新しいサイズが次の条件を満たすかどうかを必ず確認してください。
• 新しいサイズは、既存データのサイズより大きくなければなりません。さ
もないと、データが失われます。
• ファイルシステムのサイズは使用可能なスペースより大きくできないので、
新しいサイズは、現在のRAIDサイズ以下でなければなりません。
11.2.3.1 Ext2またはExt3
Ext2とExt3のファイルシステムは、resize2fsコマンドでマウントまたはア
ンマウントする際にサイズ変更できます。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 次の方法の1つで、ファイルシステムのサイズを増加します。
• ファイルシステムのサイズを、/dev/md0と呼ばれるソフトウェアRAID
デバイスの最大使用可能サイズまで拡張するには、次のコマンドを入力
します。
resize2fs /dev/md0
sizeパラメータを指定しない場合、サイズはパーティションのサイズにデ
フォルト設定されます。
224
ストレージ管理ガイド
• ファイルシステムを特定のサイズに拡張するには、次のコマンドを入力
します。
resize2fs /dev/md0 size
sizeパラメータは、要求されたファイルシステムの新サイズを指定しま
す。単位を指定しない場合のsizeパラメータの単位は、ファイルシステム
のブロックサイズです。オプションとして、sizeパラメータの後ろに、次
の単位指定子の1つを付けることができます。sは512バイトのセクタ、K
はキロバイト(1キロバイトは1024バイト)、Mはメガバイト、Gはギガバ
イトを表します。
サイズ変更が完了するまで待って、続行します。
3 ファイルシステムがマウントされていない場合は、この時点で、ファイル
システムをマウントします。
たとえば、Ext2ファイルシステムを、/dev/md0という名前のRAIDに、マ
ウントポイント/raidでマウントするには、次のように入力します。
mount -t ext2 /dev/md0 /raid
4 次のように入力して、マウントされたファイルシステムに対するサイズ変
更の効果をチェックします。
df -h
ディスクフリー(df)コマンドは、ディスクの合計サイズ、使用されたブロッ
ク数、およびファイルシステム上の使用可能なブロック数を表示します。
-hオプションは、読みやすい形式でサイズを出力します(1K、234M、2Gな
ど)。
11.2.3.2 ReiserFS
Ext2およびExt3と同様に、ReiserFSファイルシステムは、マウントまたはアン
マウント時にサイズを増加できます。サイズ変更は、RAIDアレイのブロック
デバイス上で行われます。
mdadmによるソフトウェアRAIDアレイのサイズ変更
225
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 /dev/md0と呼ばれるソフトウェアRAIDデバイスのファイルシステムのサ
イズを、次の方法の1つを使用して変更します。
• ファイルシステムのサイズをデバイスの使用可能な最大サイズまで拡張
するには、次のように入力します。
resize_reiserfs /dev/md0
サイズを指定しないと、ボリュームはパーティションのフルサイズまで
拡張されます。
• ファイルシステムを特定のサイズに拡張するには、次のコマンドを入力
します。
resize_reiserfs -s size /dev/md0
sizeを目的のサイズ(バイト単位)で置き換えます。50000K(キロバイト)、
250M(メガバイト)、2G (ギガバイト)など、値の単位を指定することもで
きます。代わりに、プラス(+)記号を値の前に付けることにより、現在の
サイズに対する増加を指定することもできます。たとえば、次のコマン
ドは、/dev/md0上のファイルシステムのサイズを500 MB分増加します。
resize_reiserfs -s +500M /dev/md0
サイズ変更が完了するまで待って、続行します。
3 ファイルシステムがマウントされていない場合は、この時点で、ファイル
システムをマウントします。
たとえば、ReiserFSファイルシステムを、/dev/md0というRAIDに、マウ
ントポイント/raidでマウントするには、次のように入力します。
mount -t reiserfs /dev/md0 /raid
4 次のように入力して、マウントされたファイルシステムに対するサイズ変
更の効果をチェックします。
226
ストレージ管理ガイド
df -h
ディスクフリー(df)コマンドは、ディスクの合計サイズ、使用されたブロッ
ク数、およびファイルシステム上の使用可能なブロック数を表示します。
-hオプションは、読みやすい形式でサイズを出力します(1K、234M、2Gな
ど)。
11.3 ソフトウェアRAIDのサイズの削
減
始める前に、11.1項 「サイズ変更プロセスの理解」 (217 ページ)のガイドライ
ンをレビューしてください。
• 11.3.1項 「ファイルシステムのサイズの削減」 (227 ページ)
• 11.3.2項 「RAIDアレイサイズの削減」
(230 ページ)
• 11.3.3項 「コンポーネントパーティションのサイズの削減」 (231 ページ)
11.3.1 ファイルシステムのサイズの削減
RAIDデバイス上のファイルシステムのサイズを削減する際には、新しいサイ
ズが次の条件を満たすかどうかを必ず確認してください。
• 新しいサイズは、既存データのサイズより大きくなければなりません。さ
もないと、データが失われます。
• ファイルシステムのサイズは使用可能なスペースより大きくできないので、
新しいサイズは、現在のRAIDサイズ以下でなければなりません。
SUSE Linux Enterprise Serverでは、Ext2、Ext3、およびReiserFSが、ファイルシ
ステムのサイズを縮小するユーティリティを提供します。以降の該当するプ
ロシージャを使用して、ファイルシステムのサイズを減少させてください。
このセクションのプロシージャでは、RAIDデバイスのデバイス名として //
dev/md0を使用しています。コマンドを変更して、必ずご使用のデバイスの
名前を使用してください。
mdadmによるソフトウェアRAIDアレイのサイズ変更
227
• 11.3.1.1項 「Ext2またはExt3」
• 11.3.1.2項 「ReiserFS」
(228 ページ)
(229 ページ)
11.3.1.1 Ext2またはExt3
Ext2とExt3のファイルシステムは、マウントまたはアンマウント時にサイズ変
更できます。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 RAID上のファイルシステムのサイズを減少させるには、次のコマンドを入
力します。
resize2fs /dev/md0 <size>
sizeを、目的のサイズを表す整数値(キロバイト単位)で置き換えます(1キ
ロバイトは1024バイト)。
サイズ変更が完了するまで待って、続行します。
3 ファイルシステムがマウントされていない場合は、この時点で、ファイル
システムをマウントします。たとえば、Ext2ファイルシステムを、/dev/
md0という名前のRAIDに、マウントポイント/raidでマウントするには、
次のように入力します。
mount -t ext2 /dev/md0 /raid
4 次のように入力して、マウントされたファイルシステムに対するサイズ変
更の効果をチェックします。
df -h
ディスクフリー(df)コマンドは、ディスクの合計サイズ、使用されたブロッ
ク数、およびファイルシステム上の使用可能なブロック数を表示します。
-hオプションは、読みやすい形式でサイズを出力します(1K、234M、2Gな
ど)。
5 11.3.2項 「RAIDアレイサイズの削減」 (230 ページ)に進みます。
228
ストレージ管理ガイド
11.3.1.2 ReiserFS
ReiserFSファイルシステムのサイズは、ボリュームがアンマウントされる場合
のみ、減少させることができます。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 次のコマンドを入力して、デバイスをアンマウントします。
umount /mnt/point
サイズを削減するパーティションにシステムファイル(ルート/ボリューム
など)が含まれていると、ブート可能なCDまたはフロッピーからブートす
る場合のみ、アンマウントが可能です。
3 /dev/md0と呼ばれるソフトウェアRAIDデバイス上のファイルシステムの
サイズを減らすには、次のように入力します。
resize_reiserfs -s size /dev/md0
sizeを目的のサイズ(バイト単位)で置き換えます。50000K(キロバイト)、
250M(メガバイト)、2G (ギガバイト)など、値の単位を指定することもでき
ます。代わりに、マイナス(-)記号を値の前に付けて、現在のサイズに対す
る削減分を指定することもできます。たとえば、次のコマンドは、/dev/
md0上のファイルシステムのサイズを 500 MB分減少させます。
resize_reiserfs -s -500M /dev/md0
サイズ変更が完了するまで待って、続行します。
4 次のコマンドで、ファイルシステムをマウントします。
mount -t reiserfs /dev/md0 /mnt/point
5 次のように入力して、マウントされたファイルシステムに対するサイズ変
更の効果をチェックします。
df -h
mdadmによるソフトウェアRAIDアレイのサイズ変更
229
ディスクフリー(df)コマンドは、ディスクの合計サイズ、使用されたブロッ
ク数、およびファイルシステム上の使用可能なブロック数を表示します。
-hオプションは、読みやすい形式でサイズを出力します(1K、234M、2Gな
ど)。
6 11.3.2項 「RAIDアレイサイズの削減」 (230 ページ)に進みます。
11.3.2 RAIDアレイサイズの削減
ファイルシステムのサイズ変更後、RAIDアレイ設定では、利用可能スペース
を縮小するよう強制するまで、元のアレイサイズを使い続けます。RAIDが、
削減したセグメントサイズを使用するようにするには、mdadm --growモー
ドを使用します。それを行うには、-zオプションを使用して、RAID内の各デ
バイスが使用するスペースの量を、キロバイトで指定する必要があります。
このサイズは、チャンクサイズの倍数である必要があり、RAIDのスーパーブ
ロックをデバイスに書き込むためのスペースとして、約128KBを残しておか
なければなりません。
このセクションのプロシージャでは、RAIDデバイスのデバイス名として //
dev/md0を使用しています。コマンドを変更して、必ずご使用のデバイスの
名前を使用してください。
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 次のように入力して、アレイのサイズとアレイに認識されるデバイスサイ
ズをチェックします。
mdadm -D /dev/md0 | grep -e "Array Size" -e "Device Size"
3 次のコマンドで、アレイのデバイスサイズを指定の値まで減少させます。
mdadm --grow /dev/md0 -z <size>
sizeを、目的のサイズを表す整数値(キロバイト単位)で置き換えます(1キ
ロバイトは1024バイト)。
230
ストレージ管理ガイド
たとえば、次のコマンドでは、各RAIDデバイスのセグメントサイズを約40
GBに設定し、チャンクサイズは64 KBです。これには、RAIDのスーパーブ
ロック用の128 KBが含まれます。
mdadm --grow /dev/md2 -z 41943168
4 次のように入力して、アレイのサイズとアレイに認識されるデバイスサイ
ズを再チェックします。
mdadm -D /dev/md0 | grep -e "Array Size" -e "Device Size"
5 次のいずれかの操作を行います。
• アレイのサイズ変更が成功していたら、11.3.3項 「コンポーネントパー
ティションのサイズの削減」 (231 ページ)を続行します。
• アレイが予期どおりにサイズ変更されていない場合は、いったん再起動
してから、このプロシージャを再試行する必要があります。
11.3.3 コンポーネントパーティションのサイ
ズの削減
RAID内の各デバイスで使用されるセグメントサイズの削減後、各コンポーネ
ントパーティション内の残りのスペースは、そのRAIDでは使われません。
パーティションを現在のサイズのまま残して将来のRAIDの拡大に備えること
も、今は使用しないそのスペースを利用することもできます。
そのスペースを利用するには、コンポーネントパーティションを1つずつ削減
します。コンポーネントパーティションごとに、そのパーティションをRAID
から削除し、パーティションサイズを縮小し、パーティションをRAIDに戻し
たら、RAIDが安定するまで待機します。メタデータに備えるには、11.3.2項
「RAIDアレイサイズの削減」 (230 ページ)でRAIDに対して指定したサイズよ
り、若干大きなサイズを指定する必要があります。
パーティションが削除されている間、RAIDはディグレードモードで動作し、
ディスクの 耐障害性がまったくないか、または低下しています。複数の同時
mdadmによるソフトウェアRAIDアレイのサイズ変更
231
ディスクエラーに耐えるRAIDの場合でも、一度に2つ以上のコンポーネント
パーティションを削除しないでください。
警告
RAIDに、ディスクの耐障害性がないか、単に一貫性がない場合、パーティ
ションのどれかを削除すると、データが失われます。パーティションの削
除は注意深く行い、必ず、データのバックアップをとってください。
このセクションのプロシージャでは、次のテーブルに示すデバイス名を使用
します。これらのコマンドは変更して、必ずご使用のデバイスの名前を使用
してください。
表 11.4 コンポーネントパーティションのサイズを増加するシナリオ
RAIDデバイス
コンポーネントパーティション
/dev/md0
/dev/sda1
/dev/sdb1
/dev/sdc1
RAID用コンポーネントパーティションのサイズを削減するには:
1 端末コンソールを開いて、rootユーザまたは同等の権限でログインしま
す。
2 次のように入力して、RAIDアレイが一貫性を保っており、同期されている
ことを確認します。
cat /proc/mdstat
このコマンドの出力によって、RAIDアレイがまだ同期中とわかる場合は、
同期化の完了まで待って、続行してください。
3 コンポーネントパーティションの1つをRAIDアレイから削除します。たと
えば、次のように入力して、/dev/sda1を削除します。
mdadm /dev/md0 --fail /dev/sda1 --remove /dev/sda1
232
ストレージ管理ガイド
成功するためには、failとremoveの両方のアクションが行われる必要があり
ます。
4 ステップ 3 (221 ページ)で削除したパーティションのサイズを、セグメント
サイズに設定したサイズより若干小さいサイズに減らします。このサイズ
は、チャンクサイズの倍数であり、RAIDのスーパーブロック用に128 KBを
確保する必要があります。fdisk、cfdisk、 partedなどのディスクパー
ティショナを使用して、パーティションのサイズを縮小します。
5 パーティションをRAIDアレイに再追加します。たとえば、次のように入力
して、/dev/sda1を追加します。
mdadm -a /dev/md0 /dev/sda1
RAIDが同期され、一貫性をもつまで待機してから、次のパーティションの
処理に進みます。
6 アレイ内の残りのコンポーネントデバイスごとに、ステップ 2 (221 ページ)
からステップ 5 (222 ページ)まで繰り返します。正しいコンポーネントパー
ティションに対して、必ずコマンドを変更してください。
7 カーネルがRAIDのパーティションテーブルを再読み込みできないという
メッセージが表示されたら、すべてのパーティションのサイズ変更後にコ
ンピュータを再起動する必要があります。
8 (オプション) RAIDとファイルシステムのサイズを拡大して、現在は小さめ
のコンポーネントパーティション内のスペースの最大量を利用するには、
次のようにします。
8a RAIDのサイズを拡大して、縮小したサイズのコンポーネントパー
ティション内で現在利用可能なスペースの最大量を利用します。
mdadm --grow /dev/md0 -z max
8b ファイルシステムのサイズを拡大して、新たにサイズ変更したRAID
内の利用可能なスペースをすべて利用します。詳細については、11.2.3
項 「ファイルシステムのサイズの増加」 (224 ページ)を参照してくだ
さい。
mdadmによるソフトウェアRAIDアレイのサイズ変更
233
MDソフトウェアRAID用のスト
レージエンクロージャLEDユー
ティリティ
12
ストレージエンクロージャLEDモニタリングユーティリティ(ledmon(8))お
よびLEDコントロール(ledctl(8))ユーティリティは、多様なインタフェー
スおよびプロトコルを使用してストレージエンクロージャLEDを制御する、
Linuxのユーザスペースアプリケーションです。その主たる用途は、mdadm
ユーティリティで作成されたLinux MDソフトウェアのRAIDデバイスの状態を
視覚化することです。ledmonデーモンがドライブアレイの状態を監視し、ド
ライブLEDの状態を更新します。ledctlを使用して、指定したデバイスに対す
るLEDパターンを設定できます。
• 12.1項 「サポートされているLED管理プロトコル」 (236 ページ)
• 12.2項 「サポートされているストレージエンクロージャシステム」
(236 ページ)
• 12.3項 「ストレージエンクロージャLED監視サービス(ledmon(8))」
(237 ページ)
• 12.4項 「ストレージエンクロージャLED制御アプリケーション(ledctl(8))」
(239 ページ)
• 12.5項 「エンクロージャLEDユーティリティ設定ファイル(ledctl.conf(5))」
(246 ページ)
• 12.6項 「追加情報」
(246 ページ)
MDソフトウェアRAID用のストレージエンクロージャLEDユーティリティ
235
12.1 サポートされているLED管理プロ
トコル
これらのLEDユーティリティでは、SGPIO (Serial General Purpose Input/Output)
仕様(Small Form Factor (SFF) 8485)およびSCSI Enclosure Services (SES) 2プロト
コルを使用して、LEDを制御します。SGPIO用のSFF-8489仕様のInternational
Blinking Pattern Interpretation (IBPI)パターンを実装します。IBPIは、SGPIO規
格がバックプレーン上のドライブやスロットの状態としてどのように解釈さ
れるか、またバックプレーンがLEDでどのように状態を視覚化すべきかを定
義します。
一部のストレージエンクロージャでは、SFF-8489仕様に厳格に準拠していな
いものがあります。エンクロージャプロセッサがIBPIパターンを受け入れて
いても、LEDの点滅はSFF-8489仕様に従っていない、あるいはプロセッサが
限られた数のIBPIパターンしかサポートしていない場合があります。
LED管理(AHCI)およびSAF-TEプロトコルは、ledmonおよびledctlユーティ
リティではサポートされていません。
12.2 サポートされているストレージエ
ンクロージャシステム
ledmonおよびledctlアプリケーションは、インテルAHCIコントローラやイ
ンテルSASコントローラなどの、インテルのストレージコントローラで機能
することが検証されています。SUSE Linux Enterprise Server 11 SP3からは、MD
ソフトウェアのRAIDボリュームの一部であるPCIe-SSDデバイスの、ストレー
ジエンクロージャ状態(OK、Fail、Rebuilding)用LEDを制御するための、PCIeSSD (ソリッドステートディスク)エンクロージャLEDもサポートされていま
す。これらのアプリケーションは、他のベンダのIBPI準拠のストレージコン
トローラ(特にSAS/SCSIコントローラ)でも機能するはずですが、他のベンダ
のコントローラはテストされていません。
236
ストレージ管理ガイド
12.3 ストレージエンクロージャLED監
視サービス(ledmon(8))
ledmonアプリケーションは、MDソフトウェアRAIDデバイスの状態またはス
トレージエンクロージャまたはドライブベイ内のブロックデバイスの状態を
コンスタントに監視する、デーモンプロセスです。一度に実行しているデー
モンのインスタンスは、1つのみである必要があります。ledmonアプリケー
ションは、インテルのエンクロージャLEDユーティリティの一部です。
状態は、ストレージアレイエンクロージャまたはドライブベイ内の、各スロッ
トに関連付けられたLED上で視覚化されます。このアプリケーションは、す
べてのソフトウェアRAIDデバイスを監視し、その状態を視覚化します。選択
したソフトウェアRAIDボリュームのみを監視する方法は、備わっていませ
ん。
ledmonアプリケーションでは、2種類のLEDシステム、すなわち、2LEDシス
テム(Activity LEDとStatus LED)と、3LEDシステム(Activity LED、Locate LED、
およびFail LED)をサポートしています。このツールには、LEDへのアクセス
の際に最高の優先度が与えられています。
• 12.3.1項 「構文」
(237 ページ)
• 12.3.2項 「オプション」
• 12.3.3項 「ファイル」
(238 ページ)
• 12.3.4項 「既知の問題」
(238 ページ)
(239 ページ)
12.3.1 構文
ledmon [options]
rootユーザまたはroot権限を持つユーザとして、コマンドを発行します。
MDソフトウェアRAID用のストレージエンクロージャLEDユーティリティ
237
12.3.2 オプション
-c , --confg=path
ローカルの環境設定ファイルへのパスを設定します。このオプションを指
定すると、グローバルの環境設定ファイルとユーザの環境設定ファイル
は、無効になります。
-l , --log=path
ローカルのログファイルへのパスを設定します。このユーザ定義ファイル
を指定すると、グローバルログファイル/var/log/ledmon.logは使用
されません。
-t , --interval=seconds
sysfsのスキャン間の時間間隔を設定します。値は秒単位です。最小値は
5秒です。最大値の指定はありません。
<--quiet|--error|--warning|--info|--debug|--all>
詳細レベルを指定します。このレベルオプションは、情報なしから、ほと
んどの情報までの順番で指定されます。ロギングを行わない場合は、-quietオプションを使用します。すべてをログする場合は、--allオプション
を使用します。2つ以上の詳細オプションを指定した場合は、コマンド内
の最後のオプションが適用されます。
-h , --help
コマンド情報をコンソールに印刷して、終了します。
-v , --version
ledmonのバージョンとライセンスに関する情報を表示して、終了しま
す。
12.3.3 ファイル
/var/log/ledmon.log
グローバルログファイルで、ledmonアプリケーションで使用します。
ユーザ定義のファイルへのロギングを強制するには、-lオプションを使
用します。
238
ストレージ管理ガイド
~/.ledctl
ユーザ環境設定ファイルで、ledmonとすべてのledctlアプリケーショ
ンインスタンス間で共有されます。
/etc/ledcfg.conf
グローバル環境設定ファイルで、ledmonとすべてのledctlアプリケー
ションインスタンス間で共有されます。
12.3.4 既知の問題
ledmonデーモンは、SFF-8489仕様のPFA (Predicted Failure Analysis)状態は認
識しません。したがって、PFAパターンは視覚化されません。
12.4 ストレージエンクロージャLED制
御アプリケーション(ledctl(8))
エンクロージャLEDアプリケーション(ledctl(8))は、ストレージエンクロー
ジャまたはドライブベイの各スロットに関連付けられたLEDを制御する、ユー
ザスペースアプリケーションです。ledctlアプリケーションは、インテルの
エンクロージャLEDユーティリティの一部です。
このコマンドを発行すると、指定したデバイスのLEDが指定したパターンに
設定され、それ以外のLEDはすべてオフになります。 ユーザは、このアプリ
ケーションを使用するには、ルート権限を持っている必要があります。ledmon
アプリケーションはLEDへのアクセスに際して最高の優先度を持っているた
め、ledmonを実行中の場合は、ledctlで設定した一部のパターンが有効にな
らないことがあります(Locateパターン以外)。
ledctlアプリケーションでは、2種類のLEDシステム、すなわち、2LEDシス
テム(Activity LEDとStatus LED)と、3LEDシステム(Activity LED、Locate LED、
およびFail LED)をサポートしています。
• 12.4.1項 「構文」
(240 ページ)
• 12.4.2項 「パターン名」
(240 ページ)
MDソフトウェアRAID用のストレージエンクロージャLEDユーティリティ
239
• 12.4.3項 「パターンの変換」
• 12.4.4項 「デバイスのリスト」
(242 ページ)
• 12.4.5項 「オプション」
• 12.4.6項 「ファイル」
• 12.4.7項 「例」
(243 ページ)
(244 ページ)
(245 ページ)
(245 ページ)
12.4.1 構文
ledctl [options] pattern_name=list_of_devices
rootユーザまたはroot権限を持つユーザとして、コマンドを発行します。
12.4.2 パターン名
ledctlアプリケーションでは、SFF-8489仕様に従い、[pattern_name]引数
に次の名前を使用できます。
locate
指定したデバイスまたはからのスロットに関連付けられたLocate LEDを点
灯します。この状態は、スロットまたはドライブの識別に使用されます。
locate_off
指定したデバイスまたはからのスロットに関連付けられたLocate LEDを消
灯します。
normal
指定したデバイスに関連付けられたStatus LED、Failure LED、およびLocate
LEDを消灯します。
off
指定したデバイスに関連付けられたStatus LEDとFailure LEDのみを消灯し
ます。
ica , degraded
In a Critical Arrayパターンを視覚化します。
240
ストレージ管理ガイド
rebuild , rebuild_p
Rebuildパターンを視覚化します。互換性とレガシーの理由から、両方
のrebuild状態をサポートしています。
ifa , failed_array
In a Failed Arrayパターンを視覚化します。
hotspare
Hotspareパターンを視覚化します。
pfa
Predicted Failure Analysisパターンを視覚化します。
failure , disk_failed
Failureパターンを視覚化します。
ses_abort
SES-2 R/R ABORT
ses_rebuild
SES-2 REBUILD/REMAP
ses_ifa
SES-2 IN FAILED ARRAY
ses_ica
SES-2 IN CRITICAL ARRAY
ses_cons_check
SES-2 CONS CHECK
ses_hotspare
SES-2 HOTSPARE
ses_rsvd_dev
SES-2 RSVD DEVICE
ses_ok
SES-2 OK
MDソフトウェアRAID用のストレージエンクロージャLEDユーティリティ
241
ses_ident
SES-2 IDENT
ses_rm
SES-2 REMOVE
ses_insert
SES-2 INSERT
ses_missing
SES-2 MISSING
ses_dnr
SES-2 DO NOT REMOVE
ses_active
SES-2 ACTIVE
ses_enable_bb
SES-2 ENABLE BYP B
ses_enable_ba
SES-2 ENABLE BYP A
ses_devoff
SES-2 DEVICE OFF
ses_fault
SES-2 FAULT
12.4.3 パターンの変換
非SES-2のパターンがエンクロージャ内のデバイスに送信されると、そのパ
ターンは、表12.1「非SES-2パターンとSES-2パターン間での変換」 (243 ページ)
に示すように、SCSI Enclosure Services (SES) 2のパターンに自動的に変換され
ます。
242
ストレージ管理ガイド
表 12.1 非SES-2パターンとSES-2パターン間での変換
非SES-2のパターン
SES-2のパターン
locate
ses_ident
locate_off
ses_ident
normal
ses_ok
off
ses_ok
ica
ses_ica
degraded
ses_ica
rebuild
ses_rebuild
rebuild_p
ses_rebuild
ifa
ses_ifa
failed_array
ses_ifa
hotspare
ses_hotspare
pfa
ses_rsvd_dev
failure
ses_fault
disk_failed
ses_fault
12.4.4 デバイスのリスト
ledctlコマンドを発行すると、指定したデバイスのLEDが指定したパターン
に設定され、それ以外のLEDはすべてオフになります。 デバイスのリストは、
次の2つの形式のいずれかで提供できます。
• スペースなしのカンマで区切られたデバイスのリスト
MDソフトウェアRAID用のストレージエンクロージャLEDユーティリティ
243
• デバイスがスペースで区切られた波括弧内のリスト
同じコマンド内で複数のパターンを指定すると、各パターンに対するデバイ
スリストで、同一または異なるフォーマットを使用できます。2つのリスト形
式を示す例は、12.4.7項 「例」 (245 ページ)を参照してください。
デバイスは、/devディレクトリまたは/sys/blockディレクトリ内のファイ
ルへのパスです。パスにより、ブロックデバイス、MDソフトウェアRAIDデ
バイス、またはコンテナデバイスを識別できます。ソフトウェアRAIDデバイ
スまたはコンテナデバイスの場合、報告されたLEDの状態は、 関連付けられ
たブロックデバイスのすべてに対して設定されます。
list_of_devicesにリストされているデバイスのLEDは、特定のパターンの
pattern_nameに設定され、それ以外のすべてのLEDは消灯されます。
12.4.5 オプション
-c , --confg=path
ローカルの環境設定ファイルへのパスを設定します。このオプションを指
定すると、グローバルの環境設定ファイルとユーザの環境設定ファイル
は、無効になります。
-l , --log=path
ローカルのログファイルへのパスを設定します。このユーザ定義ファイル
を指定すると、グローバルログファイル/var/log/ledmon.logは使用
されません。
--quiet
stdoutまたはstderrに送信されるすべてのメッセージをオフにします。
メッセージは、ローカルファイルおよびsyslogファシリティには引き続
きログされます。
-h , --help
コマンド情報をコンソールに印刷して、終了します。
-v , --version
ledctlのバージョンとライセンスに関する情報を表示して、終了しま
す。
244
ストレージ管理ガイド
12.4.6 ファイル
/var/log/ledctl.log
グローバルログファイルで、ledctlアプリケーションのすべてのインス
タンスで使用します。ユーザ定義のファイルへのロギングを強制するに
は、-lオプションを使用します。
~/.ledctl
ユーザ環境設定ファイルで、ledmonとすべてのledctlアプリケーショ
ンインスタンス間で共有されます。
/etc/ledcfg.conf
グローバル環境設定ファイルで、ledmonとすべてのledctlアプリケー
ションインスタンス間で共有されます。
12.4.7 例
単一のブロックデバイスを見つけるには
ledctl locate=/dev/sda
単一のブロックデバイスのLocate LEDkを消灯するには
ledctl locate_off=/dev/sda
MDソフトウェアRAIDデバイスのディスクを見つけて、そのブロックデバイ
スの2つに同時にrebuildパターンを設定するには
ledctl locate=/dev/md127 rebuild={ /sys/block/sd[a-b] }
指定したデバイスに対するStatus LEDとFailure LEDを消灯するには
ledctl off={ /dev/sda /dev/sdb }
3つのブロックデバイスを見つけるには
ledctl locate=/dev/sda,/dev/sdb,/dev/sdc
ledctl locate={ /dev/sda /dev/sdb /dev/sdc }
MDソフトウェアRAID用のストレージエンクロージャLEDユーティリティ
245
12.5 エンクロージャLEDユーティリ
ティ設定ファイル(ledctl.conf(5))
ledctl.confファイルが、インテルエンクロージャLEDユーティリティ用の
設定ファイルです。これらのユーティリティは、現時点では設定ファイルは
使用しません。ファイルの名前と場所は、機能向上のために予約されていま
す。
12.6 追加情報
LEDのパターンおよび監視ツールに関する詳細は、次のリソースを参照して
ください。
• Sourceforge.net上のLEDMONオープンソースプロジェクト [ http://ledmon
.sourceforge.net/ ]
• SGPIO仕様SFF-8485 [ ftp://ftp.seagate.com/sff/SFF-8485.PDF
]
• IBPI仕様SFF-8489 [ ftp://ftp.seagate.com/sff/SFF-8489.PDF ]
246
ストレージ管理ガイド
13
Linux用iSNS
ストレージエリアネットワーク(SAN)には、複数のネットワークにまたがる多
数のディスクドライブを使用できます。これによって、デバイス検出とデバ
イスの所有権の判定が難しくなります。iSCSIイニシエータはSANのストレー
ジリソースを識別し、どれにアクセスできるか判定できる必要があります。
Internet Storage Name Service (iSNS)は、TCP/IPネットワーク上のiSCSIデバイス
の自動化された検出、管理、および設定を容易にする、標準ベースのサービ
スです。iSNSでは、ファイバチャネルネットワークと同等の知的なストレー
ジの検出および管理のサービスを提供します。
重要
iSNSは安全な社内ネットワークだけで使用してください。
• 13.1項 「iSNSのしくみ」
(248 ページ)
• 13.2項 「Linux用iSNSサーバのインストール」 (249 ページ)
• 13.3項 「iSNS検出ドメインの設定」
• 13.4項 「iSNSの起動」
(257 ページ)
• 13.5項 「iSNSの停止」
(258 ページ)
• 13.6項 「詳細情報」
(251 ページ)
(258 ページ)
Linux用iSNS
247
13.1 iSNSのしくみ
iSCSIイニシエータがiSCSIターゲットを検出するには、ネットワークのどのデ
バイスがストレージリソースで、アクセスするにはどのIPアドレスが必要か
を特定する必要があります。iSNSサーバへクエリすると、iSCSIターゲットと
イニシエータがアクセス許可をもつIPアドレスのリストが返されます。
iSNSを使用してiSNS検出ドメインと検出ドメインセットを作成します。次に、
iSCSIターゲットとイニシエータを検出ドメインにグループ化またはまとめ
て、検出ドメインを検出ドメインセットにグループ化します。多くのストレー
ジノードを複数のドメインに振り分けることで、各ホストの検出プロセスを
iSNSで登録された最適なターゲットのサブセットに限定でき、これによって、
不要な検出を削減し、各ホストが検出関係の確立に費やす時間を制限するこ
とで、ストレージネットワークの規模を調整できるようになります。このよ
うにして、ディスカバリ対象のターゲットとイニシエータの数を制御し、簡
略化できます。
図 13.1 iSNS検出ドメインと検出ドメインセット
iSCSIターゲットとiSCSIイニシエータは両方とも、iSNSクライアントを使用
して、iSNSプロトコルによるiSNSサーバとのトランザクションを開始します。
iSCSIターゲットとiSCSIイニシエータは、次にデバイス属性情報を共通検出ド
メインに登録し、その他の登録されたクライアント情報をダウンロードし、
検出ドメインで発生したイベントの非同期通知を受け取ります。
iSNSサーバは、iSNSプロトコルクエリとiSNSクライアントがiSNSプロトコル
を使用して作成した要求に応答します。iSNSサーバはiSNSプロトコル状態変
更通知を開始し、登録要求から送られてきた適切に認証された情報をiSNSデー
タベースに保存します。
248
ストレージ管理ガイド
Linux向けiSNSには、次のようなメリットがあります。
• ネットワーク接続させたストレージ資産の登録、検出、管理に役立つ情報
を提供する。
• DNSインフラストラクチャと統合する。
• iSCSIストレージの登録、検出、管理を統合する。
• ストレージ管理の実装が簡素化される。
• その他のディスカバリ方法よりもスケーラビリティが向上する。
次のシナリオは、iSNSのメリットについて具体的に説明したものです。
100個のiSCSIイニシエータと100個のiSCSIターゲットが会社にあるとします。
設定によっては、すべてのiSCSIイニシエータが100個のiSCSIターゲットを検
出して接続しようとする可能性があります。このため、検出や接続が困難に
なる場合があります。イニシエータとターゲットをいくつかの検出ドメイン
にグループ化することで、ある部門のiSCSIイニシエータが別の部門のiSCSI
ターゲットを検出しないようにできます。その結果、特定部門のiSCSIイニシ
エータは、その部門の検出ドメインに属するiSCSIターゲットしか検出しませ
ん。
13.2 Linux用iSNSサーバのインストー
ル
SLES 10 SP2以降のバージョンには、Linux用iSCSIサーバが含まれていますが、
このサーバは、デフォルトでは、インストールも設定もされません。したがっ
て、iSNSパッケージモジュール (isnsモジュールおよびyast2-isnsモジュー
ル)をインストールし、iSNSサービスを設定する必要があります。
注記
iSNSは、iSCSIターゲットまたはiSCSIイニシエータのソフトウェアがインス
トールされる同じサーバにインストールできます。ただし、iSCSIターゲッ
トソフトウェアとiSCSIイニシエータソフトウェアの両方を同じサーバにイ
ンストールすることはできません。
Linux用iSNS
249
Linux向けiSNSをインストールするには、次の手順に従います。
1 YaSTを起動して、[][ネットワークサービスiSNSサーバ]を選択しま
す。
2 isnsパッケージのインストールを促されたら、 [Install(インストール)]
をクリックします。
3 インストールの指示に従って、SUSE Linux Enterprise Server 11のインストー
ルディスクを挿入します。
インストールが完了すると、iSNSサービスの設定ダイアログボックスが、
自動的に、[サービス]タブを開いた状態で表示されます。
4 [iSNSサーバのアドレス]で、iSNSサーバのDNS名またはIPアドレスを指
定します。
5 [Service Start(サービスの開始)]で、次のオプションの1つを選択します。
• ブート時: iSNSサービスは、サーバの起動時に自動的に開始します。
250
ストレージ管理ガイド
• 手動(デフォルト): サービスを開始するには、iSNSのインストール先サー
バのサーバコンソールで、rcisns startまたは/etc/init.d/isns
startを入力する必要があります。
6 次のファイアウォール設定を指定します。
• Open Port in Firewall(ファイアウォールのポートを開く): このチェック
ボックスを選択して、ファイアウォールを開き、リモートコンピュータ
からサービスにアクセスできるようにします。ファイアウォールのポー
トは、デフォルトでは閉じています。
• ファイアウォールの詳細: ファイアウォールのポートを開いた場合、デ
フォルトでは、ポートがすべてのネットワークインタフェースで開きま
す。ポートを開くインタフェースを選択するには、[Firewall Details(ファ
イアウォールの詳細)]をクリックし、使用するネットワークインタフェー
スを選択し、次に、[OK]をクリックします。
7 [完了]をクリックして、設定を適用し、インストールを完了します。
8 13.3項 「iSNS検出ドメインの設定」 (251 ページ)に進みます。
13.3 iSNS検出ドメインの設定
iSCSIイニシエータおよびターゲットでiSNSサービスを使用するには、これら
が検出ドメインに属している必要があります。
重要
iSNS検出ドメインを設定するには、iSNSサービスがインストール済みで、
実行されている必要があります。詳細については、13.4項 「iSNSの起
動」 (257 ページ)を参照してください。
• 13.3.1項 「iSNS検出ドメインの作成」
(252 ページ)
• 13.3.2項 「iSNS検出ドメインセットの作成」
(253 ページ)
• 13.3.3項 「iSCSIノードの検出ドメインへの追加」
(255 ページ)
Linux用iSNS
251
• 13.3.4項 「検出ドメインの検出ドメインセットへの追加」
(257 ページ)
13.3.1 iSNS検出ドメインの作成
iSNSサービスをインストールすると、[デフォルトDD]というデフォルトの
検出ドメインが自動的に作成されます。iSNSを使用するように設定されてい
る既存のiSCSIターゲットとイニシエータは、デフォルト検出ドメインに自動
的に追加されます。
新しい検出ドメインを作成するには、次の手順に従います。
1 YaSTを起動して、[ネットワークサービス]の下で[iSNSサーバ]を選択
します。
2 [検出ドメイン]タブをクリックします。
[検出ドメイン]の領域にすべての検出ドメインがリストされます。新し
い検出ドメインを作成したり、既存のドメインを削除できます。ドメイン
を削除すると、そのドメインからメンバーが削除されますが、iSCSIノード
メンバーは削除されません。
[検出ドメインメンバー]の領域に、選択した検出ドメインに割り当てら
れているすべてのiSCSIノードがリストされます。別の検出ドメインを選択
すると、その検出ドメインからのメンバーで、リストが更新されます。選
択した検出ドメインからiSCSIノード を追加したり、削除できます。iSCSI
ノード を削除すると、そのノードは、ドメインから削除されますが、iSCSI
ノード自体は削除されません。
iSCSIノード を作成すると、未登録のノード を検出ドメインのメンバーと
して追加できます。iSCSIイニシエータまたはiSCSIターゲットがこのノー
ド を登録すると、このノード は、このドメインの一部となります。
iSCSIイニシエータが検出要求を発行すると、iSNSサービスは同じ検出ドメ
イン内のメンバーであるすべてのiSCSIノードターゲットを返します。
252
ストレージ管理ガイド
3 [検出ドメインの作成]ボタンをクリックします。
既存の検出ドメインを選択して[削除]ボタンをクリックして、その検出
ドメインを削除できます。
4 作成している検出ドメインの名前を指定して、[OK]をクリックします。
5 13.3.2項 「iSNS検出ドメインセットの作成」 (253 ページ)に進みます。
13.3.2 iSNS検出ドメインセットの作成
検出ドメインは検出ドメインセットに属している必要があります。検出ドメ
インを作成してこの検出ドメインにノードを追加できますが、これはアクティ
ブではないため、iSNSサービスは検出ドメインを検出ドメインセットに追加
するまで機能しません。iSNSをインストールすると、[デフォルトDDS]と
いうデフォルトの検出ドメインセットが自動的に作成され、デフォルトの検
出ドメインは自動的にこのドメインセットに追加されます。
検出ドメインセットを作成するには、次の手順に従います。
Linux用iSNS
253
1 YaSTを起動して、[ネットワークサービス]の下で[iSNSサーバ]を選択
します。
2 [検出ドメインセット]タブをクリックします。
[検出ドメインセット]領域に、すべての検出ドメインセットがリストさ
れます。検出ドメインをアクティブでするには、その検出ドメインを検出
ドメインセットのメンバーでする必要があります。
iSNSデータベースでは、検出ドメインセットは検出ドメインを包含し、検
出ドメインはiSCSIノードメンバーを包含します。
[検出ドメインセットのメンバー]領域に、選択した検出ドメインセット
に割り当てられているすべての検出ドメインがリストされます。別の検出
ドメインセットを選択すると、その検出ドメインセットからのメンバーで、
リストが更新されます。選択した検出ドメインセットから検出ドメインを
追加したり、削除できます。検出ドメインを削除すると、その検出ドメイ
ンは、検出ドメインセットから削除されますが、検出ドメイン自体は削除
されません。
検出ドメインをセットに追加すると、まだ登録されていないiSNS検出ドメ
インを、検出ドメインセットのメンバーとして追加できます。
254
ストレージ管理ガイド
3 [検出ドメインセットの作成]ボタンをクリックします。
既存の検出ドメインセットを選択して[削除]ボタンをクリックして、そ
の検出ドメインセットを削除できます。
4 作成している検出ドメインセットの名前を指定して、[OK]をクリックし
ます。
5 13.3.3項 「iSCSIノードの検出ドメインへの追加」 (255 ページ)に進みます。
13.3.3 iSCSIノードの検出ドメインへの追加
1 YaSTを起動して、[ネットワークサービス]の下で[iSNSサーバ]を選択
します。
2 [iSCSIノード]タブをクリックします。
Linux用iSNS
255
3 ノード のリストをレビューして、iSNSサービスを使用させたい iSCSIター
ゲットおよびイニシエータがリストされていることを確認します。
iSCSIターゲットまたはイニシエータが一覧にない場合、ノード上のiSCSI
サービスを再起動する必要があります。これは、rcopen-iscsi restart
コマンドを実行してイニシエータを再起動するか、またはrciscsitarget
restartコマンドでターゲットを再起動して実行します。
iSCSIノードを選択して[削除]ボタンをクリックして、そのノードをiSNS
データベースから削除できます。iSCSIノードをもう使用しない場合や名前
を変更した場合に有効です。
iSCSI環境設定ファイルのiSNSの部分を削除したりコメント化していない限
り、iSCSIノードは、iSCSIサービスの再開始時またはサーバの再起動時に、
リスト(iSNSデータベース)に自動的に追加されます。
4 [検出ドメイン]タブをクリックして該当する検出ドメインを選択し、[メ
ンバーの表示]ボタンをクリックします。
256
ストレージ管理ガイド
5 [Add existing iSCSI Node]をクリックしてドメインに追加するノードを選
択し、[ノードの追加]をクリックします。
6 検出ドメインに追加するノードの数だけステップ 5(257 ページ)を繰り返し、
ノードの追加が終了したら[完了]をクリックします。
iSCSIノードは複数の検出ドメインに属すことができます。
7 13.3.4項 「検出ドメインの検出ドメインセットへの追加」 (257 ページ)に進
みます。
13.3.4 検出ドメインの検出ドメインセットへ
の追加
1 YaSTを起動して、[ネットワークサービス]の下で[iSNSサーバ]を選択
します。
2 [検出ドメインセット]タブをクリックします。
3 [Create Discovery Domain Set]を選択して、新しいセットを検出ドメイン
セットのリストに追加します。
4 変更する検出ドメインを選択します。
5 [検出ドメインの追加]をクリックして検出ドメインセットに追加する検
出ドメインを選択し、[検出ドメインの追加]をクリックします。
6 検出ドメインセットに追加する検出ドメインについて最後のステップを繰
り返して、[完了]をクリックします。
検出ドメインは複数の検出ドメインセットに属すことができます。
13.4 iSNSの起動
iSNSは、インストール先のサーバで起動する必要があります。端末コンソー
ルで、rootユーザとして、次のコマンドの1つを入力します。
Linux用iSNS
257
rcisns start
/etc/init.d/isns start
iSNSでは、stop、status、restartの各オプションも使用できます。
iSNSはサーバの再起動時に自動的に起動するように設定することもできます。
1 YaSTを起動して、[ネットワークサービス]の下で[iSNSサーバ]を選択
します。
2 [サービス]タブを選択して、iSNSサーバのIPアドレスを指定して、
[SaveAddress]を選択します。
3 画面の[サービスの開始]セクションで、[ブート時]を選択します。
iSNSサーバを手動で起動することもできます。この場合、rcisns start
コマンドを使用して、サーバを再起動するときにサービスを毎回起動する
必要があります。
13.5 iSNSの停止
iSNSは、それが実行中のサーバで停止させる必要があります。端末コンソー
ルで、rootユーザとして、次のコマンドの1つを入力します。
rcisns stop
/etc/init.d/isns stop
13.6 詳細情報
詳細については、「Linux iSNS for iSCSI project [http://sourceforge.net/
projects/linuxisns/]」を参照してください。プロジェクトの電子メール
リストは、「Linux iSNS - Discussion [http://sourceforge.net/
mailarchive/forum.php?forum_name=linuxisns-discussion]」に
掲載されています。
258
ストレージ管理ガイド
iSNSの一般情報は、「RFC 4171: Internet Storage Name Service [http://www
.ietf.org/rfc/rfc4171]」に記載されています。
Linux用iSNS
259
IPネットワークの大容量記憶域:
iSCSI
14
サーバの運用、またはコンピュータセンターの重要なタスクの1つには、サー
バシステムに対してハードディスクスペースを提供することがあります。こ
の用途には、多くの場合、ファイバチャネルが使用されます。iSCSI(Internet
SCSI)ソリューションは、ファイバチャネルに対する低コストの代替であり、
コモディティサーバおよびEthernetネットワーキング装置を活用することがで
きます。Linux iSCSIは、iSCSIイニシエータおよびiSCSIターゲットのソフト
ウェアの提供により、Linuxサーバを中央ストレージシステムに接続します。
IPネットワークの大容量記憶域: iSCSI
261
図 14.1 iSNSサーバによるiSCSI SAN
262
ストレージ管理ガイド
iSCSIは、ストレージネットワーキングプロトコルであり、ブロックストレー
ジデバイスとサーバ間のTCP/IPネットワーク上でSCSIパケットのデータ転送
を容易にします。iSCSIターゲットソフトウェアは、ターゲットサーバ上で実
行され、論理ユニットをiSCSIターゲットデバイスとして定義します。iSCSIイ
ニシエータソフトウェアは異なるサーバ上で実行され、ターゲットデバイス
に接続して、そのサーバ上でストレージデバイスを使用できるようにします。
重要
iSCSIターゲットソフトウェアとiSCSIイニシエータソフトウェアを、運用環
境内の同じサーバ上で実行することはできません。
iSCSIターゲットサーバおよびイニシエータサーバは、LAN内のIPレベルで
SCSIパケットを送信して通信します。イニシエータサーバ上のアプリケーショ
ンがiSCSIターゲットデバイスに対する照会を開始すると、オペレーティング
システムが必要なSCSIコマンドを発行します。するとSCSIコマンドが、iSCSI
イニシエータと呼ばれるソフトウェアによってIPパケットに組み込まれ、必
要に応じて暗号化されます。パケットは社内IPネットワークで、iSCSIターゲッ
トと呼ばれるiSCSIリモートステーションに転送されます。
多くのストレージソリューションが、iSCSIによるアクセス手段を提供してい
ます。また、LinuxサーバにiSCSIターゲットの役割をさせることもできます。
この場合、Linuxサーバをファイルシステムサービス用に最適化しておくこと
が重要です。iSCSIターゲットはLinux内のブロックデバイスにアクセスしま
す。したがってRAIDソリューションを使用することでディスク容量を増や
し、メモリも増量してデータキャッシングを向上させることができます。RAID
の詳細については、第8章 ソフトウェアRAIDの設定 (177 ページ)も参照してく
ださい。
• 14.1項 「iSCSIターゲットおよびイニシエータのインストール」 (264 ページ)
• 14.2項 「iSCSIターゲットのセットアップ」
• 14.3項 「iSCSIイニシエータの設定」
(265 ページ)
(276 ページ)
• 14.4項 「インストール時のiSCSIディスクの使用」
• 14.5項 「iSCSIのトラブルシューティング」
• 14.6項 「追加情報」
(284 ページ)
(284 ページ)
(287 ページ)
IPネットワークの大容量記憶域: iSCSI
263
14.1 iSCSIターゲットおよびイニシエー
タのインストール
YaSTにはiSCSIターゲットとiSCSIイニシエータソフトウェアのエントリが含
まれていますが、パッケージはデフォルトではインストールされません。
重要
iSCSIターゲットソフトウェアとiSCSIイニシエータソフトウェアを、運用環
境内の同じサーバ上で実行することはできません。
• 14.1.1項 「iSCSIターゲットソフトウェアのインストール」
(264 ページ)
• 14.1.2項 「iSCSIイニシエータソフトウェアのインストール」 (265 ページ)
14.1.1 iSCSIターゲットソフトウェアのインス
トール
iSCSIターゲットデバイスを作成したいサーバに、iSCSIターゲットソフトウェ
アをインストールします。
1 YaSTを、rootユーザとして起動します。
2 [ネットワークサービス][iSCSI ターゲット]を選択します。
3 iscsitargetパッケージのインストールを促されたら、[インストール]
をクリックします。
4 画面上のインストール指示に従って、必要に応じてインストールメディア
を提供します。
インストールが完了したら、[iSCSIターゲットの概要]ページで[サービ
ス]タブを選択した状態で、YaSTが開きます。
5 14.2項 「iSCSIターゲットのセットアップ」 (265 ページ)に進みます。
264
ストレージ管理ガイド
14.1.2 iSCSIイニシエータソフトウェアのイン
ストール
iSCSIサーバ上に設定したターゲットデバイスにアクセスしたい各サーバに、
iSCSIイニシエータソフトウェアをインストールします。
1 YaSTを、rootユーザとして起動します。
2 [ネットワークサービス][iSCSIイニシエータ]を選択します。
3 open-iscsiパッケージのインストールを促されたら、[インストール]
をクリックします。
4 画面上のインストール指示に従って、必要に応じてインストールメディア
を提供します。
インストールが完了したら、[iSCSIイニシエータの概要]ページで[サー
ビス]タブを選択した状態で、YaSTが開きます。
5 14.3項 「iSCSIイニシエータの設定」 (276 ページ)に進みます。
14.2 iSCSIターゲットのセットアップ
SUSE® Linux Enterprise Serverには、Ardis iSCSIターゲットから進化したオー
プンソースのiSCSIターゲットソリューションが付属しています。基本的な設
定はYaSTを使って行えますが、iSCSIの機能をフル活用するには、手動で設定
を行う必要があります。
• 14.2.1項 「ストレージスペースの準備」
(266 ページ)
• 14.2.2項 「YaSTを使ったiSCSIターゲットの作成」
• 14.2.3項 「iSCSIターゲットの手動設定」
(268 ページ)
(272 ページ)
• 14.2.4項 「ietadmを使ったオンラインターゲットの設定」
(274 ページ)
IPネットワークの大容量記憶域: iSCSI
265
14.2.1 ストレージスペースの準備
iSCSIターゲットの設定により、既存のブロックデバイスをiSCSIイニシエータ
にエクスポートします。YaSTのパーティショナを使用して、またはコマンド
ラインからパーティション分割を行うことで、未フォーマットのパーティショ
ンやデバイスを設定し、ターゲットデバイスで使用するストレージスペース
を準備する必要があります。iSCSI LIO ターゲットは、Linux、Linux LVM、
またはLinux RAIDファイルシステムIDで未フォーマットのパーティションを
使用できます。
重要
iSCSIターゲットとして使用するデバイスやパーティションを設定したら、
ローカルパス経由で直接アクセスしないでください。作成時にはマウント
ポイントは指定しないでください。
• 14.2.1.1項 「デバイスのパーティショニング」
(266 ページ)
• 14.2.1.2項 「仮想環境でのデバイスのパーティション分割」
(267 ページ)
14.2.1.1 デバイスのパーティショニング
1 YaSTを、rootユーザとして起動します。
2 [システム][パーティショナ]を選択します。
3 パーティショナの使用に関する警告に対して[はい]を選択して続行しま
す。
4 [追加]をクリックしてパーティションを作成しますが、フォーマットや
マウントは行いません。
4a [プライマリパーティション]を選択し、[次へ]をクリックしま
す。
4b 使用する容量を指定して、[次へ]をクリックします。
4c [フォーマットしない]を選択し、ファイルシステムIDの種類を指
定します。
266
ストレージ管理ガイド
iSCSIターゲットは、Linux、Linux LVM、またはLinux RAIDファイル
システムIDで未フォーマットのパーティションを使用できます。
4d [マウントしない]を選択します。
4e [完了]をクリックします。
5 後でiSCSI LUNとして使用したい各エリアに対して、ステップ 4 (266 ページ)
を繰り返し実行します。
6 [受諾]をクリックして変更を保存し、YaSTを閉じます。
14.2.1.2 仮想環境でのデバイスのパーティション分割
XenゲストサーバをiSCSIターゲットサーバとして使用することができます。
iSCSIストレージデバイスに使用するストレージスペースをゲストの仮想マシ
ンに割り当て、ゲスト環境内の仮想ディスクとしてそのスペースにアクセス
します。各仮想ディスクは、ディスク全体、パーティション、ボリュームな
どの物理ブロックデバイスでも、Xenホストサーバ上の大規模な物理ディスク
上の単一イメージファイルが仮想ディスクになっている、ファイルバックディ
スクイメージのいずれでも可能です。最適なパフォーマンスを得るためには、
物理ディスクまたはパーティションから各仮想ディスクを作成してください。
ゲストの仮想マシンに仮想ディスクを設定したら、ゲストサーバを起動し、
物理サーバの場合と同じ方法で、新しいブランクの仮想ディスクをiSCSIター
ゲットデバイスとして設定します。
ファイルバックディスクイメージがXenホストサーバ上に作成され、Xenゲス
トサーバに割り当てられます。デフォルトでは、Xenはファイルバックディス
クイメージを/var/lib/xen/images/vm_nameディレクトリに保存します。
ここでvm_nameは仮想マシンの名前です。
たとえば、サイズが4GBの/var/lib/xen/images/vm_one/xen--0ディス
クイメージを作成する場合は、まず、ディレクトリが存在することを確認し、
次に、イメージ自体を作成します。
1 ホストサーバにrootユーザとしてログインします。
2 端末コンソールプロンプトで次のコマンドを入力します。
IPネットワークの大容量記憶域: iSCSI
267
mkdir -p /var/lib/xen/images/vm_one
dd if=/dev/zero of=/var/lib/xen/images/vm_one/xen-0 seek=1M bs=4096 count=1
3 Xen設定ファイルで、ファイルシステムイメージをゲスト仮想マシンに割
り当てます。
4 ゲストサーバにrootユーザとしてログインし、YaSTを使用して14.2.1.1項
「デバイスのパーティショニング」 (266 ページ)の手順で仮想ブロックデバ
イスを設定します。
14.2.2 YaSTを使ったiSCSIターゲットの作成
iSCSIターゲットを設定するには、YaSTの[iSCSIターゲット]モジュールを
起動します。設定項目は、3つのタブに分かれています。[Service][タブで
は、実行モードとファイアウォールの設定を行います。]リモートコンピュー
タからiSCSIターゲットにアクセスする場合は、[ファイアウォールでポート
を開く]を選択します。iSNSサーバが検出およびアクセス制御を管理する場
合は、[iSNSアクセス管理]を有効にして、iSNSサーバのIPアドレスを入力
します。ホスト名やDNSは使用できません。IPアドレスを使用する必要があ
ります。 iSNSの詳細は、第13章 Linux用iSNS (247 ページ)を参照してください。
[Global][タブでは、iSCSIサーバの設定を行います。]ここで設定する認
証方法は、サービスの検出に使用します。ターゲットにアクセスする場合の
ものではありません。ディスカバリへのアクセスを制限しない場合は、[No
Authentication]を選択します。
認証が必要な場合、2つの検討事項があります。まず、イニシエータは、iSCSI
ターゲットでディスカバリを実行するためのパーミッションがあることを証
明できなければなりません。この設定は、[Incoming Authentication]で行い
ます。もう1つは、iSCSIターゲットはイニシエータに、自分が正しいターゲッ
トであることを証明しなければなりません。そのため、iSCSIターゲットも
ユーザ名とパスワードを使用できます。この設定は、[OutgoingAuthentication]
で行います。認証の詳細は、RFC 3720 [http://www.ietf.org/rfc/
rfc3720.txt]を参照してください。
ターゲットは、[Targets]タブで定義します。新しいiSCSIターゲットを作成
するには、[追加]をクリックします。最初のダイアログボックスでは、エ
クスポートするデバイスに関する情報を指定します。
268
ストレージ管理ガイド
ターゲット
[Target][行には、以下のような固定形式の構文を指定します。]
iqn.yyyy-mm.<reversed domain name>:unique_id
この行は常に「iqn」から始まります。「yyyy-mm」の部分には、このター
ゲットをアクティブにする日付を指定します。命名規則の詳細について
は、RFC 3722 [http://www.ietf.org/rfc/rfc3722.txt]を参照して
ください。
Identifier
[Identifier][は、自由に指定することができます。]ただし、システム
を体系的に管理するためにも、一定のスキーマを使用するようにしてくだ
さい。
LUN
ターゲットに複数のLUNを割り当てることができます。そのためには、
[ターゲット]タブでターゲットを選択し、[編集]をクリックします。
次に、既存ターゲットに新しいLUNを追加します。
パス
エクスポートするブロックデバイス、またはファイルシステムイメージの
パスを追加します。
次のメニューでは、ターゲットへのアクセス制限を設定します。ここの設定
は、ディスカバリの認証設定とほとんど変わりありません。この場合、少な
くとも着信認証を設定する必要があります。
[新しいターゲットの設定を完了するには、][次へ][をクリックしま
す。][Target]タブの概要ページが表示されます。変更内容を有効にするに
は、[完了]をクリックします。
ターゲットデバイスを作成するには:
1 YaSTを、rootユーザとして起動します。
2 [ネットワークサービス][iSCSI ターゲット]を選択します。
[iSCSIターゲットの概要]ページで[サービス]タブを選択した状態で、
YaSTが開きます。
IPネットワークの大容量記憶域: iSCSI
269
3 [サービスの開始]領域で、次のいずれかを選択します。
• 起動時: その後の再起動時には、イニシエータサービスが自動的に開始
します。
• 手動(デフォルト): サービスを手動で開始します。
4 ターゲットアドバタイジングにiSNSを使用する場合は、[iSNSアクセス制
御]チェックボックスを選択し、IPアドレスを入力します。
5 必要に応じて、ファイアウォールポートを開き、リモートコンピュータか
らサーバへのアクセスを許可します。
5a [ファイアウォールでポートを開く]チェックボックスを選択しま
す。
5b [ファイアウォールの詳細]をクリックして、ポートを開くネット
ワークインタフェースを指定し、ネットワークインタフェースの横
270
ストレージ管理ガイド
のチェックボックスをオンにして有効にし、[OK]をクリックして
設定を受け入れます。
6 このサーバで設定したターゲットデバイスへの接続に認証が必要な場合は、
[グローバル]タブを選択し、[認証なし]の選択を解除して、送受信の
認証に必要な資格情報を指定します。
デフォルトでは[認証なし]のオプションが有効になっています。設定を
より安全にするには、着信、発信、または着信と発信の両方に認証を指定
できます。ユーザ名とパスワードのペアを[受信認証]の一覧に追加する
ことで、受信認証の資格情報を複数セット指定することもできます。
7 iSCSIターゲットデバイスを指定します。
7a [ターゲット]タブを選択します。
7b まだそうしていない場合は、一覧からサンプルのiSCSIターゲットを
選択して削除し、[続ける]をクリックして削除を確認します。
IPネットワークの大容量記憶域: iSCSI
271
7c [追加]をクリックして、新しいiSCSIターゲットを追加します。
iSCSIターゲットによって自動的に未フォーマットのパーティション
やブロックデバイスが提示され、[ターゲット]および[イニシエー
タ]フィールドに情報が入力されます。
7d これを受諾することも、別なスペースを選択することもできます。
[追加]をクリックして、そのLUNに割り当てるセクタを指定する
ことで、スペースをさらに分割して、デバイス上にLUNを作成する
こともできます。これらのLUNに追加のオプションが必要な場合は、
[エキスパート設定]を選択します。
7e Click [Next]
7f 作成する各iSCSIターゲットデバイスに対して、ステップ
7c (272 ページ)からステップ 7e (272 ページ)を繰り返し実行します。
7g (オプション)[サービス]タブで[保存]をクリックして、設定した
iSCSIターゲットの情報をファイルにエクスポートします。
こうしておくと、後でこの情報をリソースの利用者に簡単に提供す
ることができます。
7h [完了]をクリックしてデバイスを作成し、[はい]をクリックし
てiSCSIソフトウェアスタックをリスタートします。
14.2.3 iSCSIターゲットの手動設定
iSCSIターゲットを設定するには、/etc/ietd.confを編集します。このファ
イル中の、最初のTarget宣言より前にあるすべてのパラメータは、ファイルの
グローバルパラメータになります。この部分にある認証情報は、グローバル
パラメータではありません。iSCSIターゲットの検出に用いられます。
iSNSサーバにアクセスできる場合は、まず、ファイルを、このサーバについ
てターゲットに通知するように設定する必要があります。iSNSサーバのアド
レスは、必ず、IPアドレスで指定する必要があります。iSNSサーバのDNS名
を指定することはできません。この機能の設定は、次のようになります。
272
ストレージ管理ガイド
iSNSServer 192.168.1.111
iSNSAccessControl no
この設定では、iSCSIターゲットがiSNSサーバでそれ自体を登録し、ディス
カバリのイニシエータとなります。iSNSの詳細は、第13章 Linux用
iSNS (247 ページ)を参照してください。iSNSディスカバリのためのアクセス制
御はサポートされていません。[iSNSアクセス管理]を[いいえ]のままに
します。
すべての直接iSCSI認証は、双方向で行うことができます。iSCSIターゲットが
iSCSIイニシエータに認証を要求するには、IncomingUserを使用します。こ
のオプションは、複数回追加できます。iSCSIイニシエータも、iSCSIターゲッ
トに認証を要求することができます。この場合は、OutgoingUserを使用し
ます。どちらの場合も、構文は同じです。
IncomingUser <username> <password>
OutgoingUser <username> <password>
認証後は、1つまたは複数のターゲット定義を指定します。定義する各ター
ゲットについて、Targetセクションを追加します。このセクションは、常に
Target識別子で始まり、その後に論理ユニット番号の定義が続きます。
Target iqn.yyyy-mm.<reversed domain name>[:identifier]
Lun 0 Path=/dev/mapper/system-v3
Lun 1 Path=/dev/hda4
Lun 2 Path=/var/lib/xen/images/xen-1,Type=fileio
Target行では、yyyy-mmにターゲットを有効にする日付を指定し、
identifierに任意の識別子を指定できます。命名規則の詳細については、
RFC 3722 [http://www.ietf.org/rfc/rfc3722.txt]を参照してくださ
い。この例では、3つの異なるブロックデバイスをエクスポートしています。
最初のブロックデバイスは論理ボリューム(第4章 LVMの設定 (43 ページ)も参
照)、2番目はIDEパーティション、3番目はローカルファイルシステムで使用
可能なイメージです。これらはすべてiSCSIイニシエータへのブロックデバイ
スのようになります。
iSCSIターゲットを有効にする前に、Lun定義の後に、最低1つのIncomingUser
を追加してください。このパラメータは、このターゲットの使用に対する認
証を指定します。
IPネットワークの大容量記憶域: iSCSI
273
変更内容を有効にするには、rcopen-iscsi restartコマンドを実行して、
iscsitargetデーモンを再起動します。/procファイルシステムで、設定内容を確
認してください。
cat /proc/net/iet/volume
tid:1 name:iqn.2006-02.com.example.iserv:systems
lun:0 state:0 iotype:fileio path:/dev/mapper/system-v3
lun:1 state:0 iotype:fileio path:/dev/hda4
lun:2 state:0 iotype:fileio path:/var/lib/xen/images/xen-1
ここで説明しているほかにも、iSCSIターゲットの動作を制御するさまざまな
オプションがあります。詳細については、ietd.confのマニュアルページを
参照してください。
/procファイルシステムには、アクティブなセッションも表示されます。接続
されている各イニシエータに対応するエントリが、/proc/net/iet/session
に追加されます。
cat /proc/net/iet/session
tid:1 name:iqn.2006-02.com.example.iserv:system-v3
sid:562949957419520
initiator:iqn.2005-11.de.suse:cn=rome.example.com,01.9ff842f5645
cid:0 ip:192.168.178.42 state:active hd:none dd:none
sid:281474980708864 initiator:iqn.2006-02.de.suse:01.6f7259c88b70
cid:0 ip:192.168.178.72 state:active hd:none dd:none
14.2.4 ietadmを使ったオンラインターゲット
の設定
iSCSIターゲットの設定の変更が必要な場合は、必ず、ターゲットを再起動し
て、設定ファイルで行った変更を有効にする必要があります。ただし、この
作業を行うと、アクティブなセッションがすべて中断されます。この問題を
回避するには、環境設定ファイルの/etc/ietd.confを変更すると同時に、
ietadm管理ユーティリティを使って現在の設定も変更してください。
LUNを指定した新しいiSCSIターゲットを作成するには、まず設定ファイルを
更新します。追加するエントリの例を以下に示します。
Target iqn.2006-02.com.example.iserv:system2
Lun 0 Path=/dev/mapper/system-swap2
IncomingUser joe secret
274
ストレージ管理ガイド
この設定を手動で行うには、次の手順に従ってください。
1 ietadm --op new --tid=2 --params
Name=iqn.2006-02.com.example.iserv:system2コマンドを実行し
て、新しいターゲットを作成します。
2 ietadm --op new --tid=2 --lun=0 --params
Path=/dev/mapper/system-swap2コマンドを実行して、LUNを追加し
ます。
3 ietadm --op new --tid=2 --user
--params=IncomingUser=joe,Password=secretコマンドを実行し
て、このターゲットにユーザ名とパスワードを設定します。
4 cat /proc/net/iet/volumeコマンドを実行して、設定内容を確認しま
す。
アクティブな接続を削除することもできます。まず、cat
/proc/net/iet/sessionコマンドを実行して、アクティブな接続を表示し
ます。たとえば、次のように表示されます。
cat /proc/net/iet/session
tid:1 name:iqn.2006-03.com.example.iserv:system
sid:281474980708864 initiator:iqn.1996-04.com.example:01.82725735af5
cid:0 ip:192.168.178.72 state:active hd:none dd:none
セッションIDが 281474980708864のセッションを削除する場合は、ietadm
--op delete --tid=1 --sid=281474980708864 --cid=0コマンドを
実行します。このコマンドを実行すると、クライアントシステムからデバイ
スにアクセスできなくなるため、このデバイスにアクセスしているデバイス
がハングアップする可能性があることに注意してください。
ietadmを使って、さまざまな環境設定パラメータを変更することもできます。
グローバル変数を一覧表示する場合は、ietadm --op show --tid=1
--sid=0コマンドを実行します。次のような実行結果が表示されます。
InitialR2T=Yes
ImmediateData=Yes
MaxConnections=1
MaxRecvDataSegmentLength=8192
MaxXmitDataSegmentLength=8192
MaxBurstLength=262144
IPネットワークの大容量記憶域: iSCSI
275
FirstBurstLength=65536
DefaultTime2Wait=2
DefaultTime2Retain=20
MaxOutstandingR2T=1
DataPDUInOrder=Yes
DataSequenceInOrder=Yes
ErrorRecoveryLevel=0
HeaderDigest=None
DataDigest=None
OFMarker=No
IFMarker=No
OFMarkInt=Reject
IFMarkInt=Reject
これらのパラメータは、すべて容易に変更できます。たとえば、最大接続数
を2に変更する場合は、=2を実行します。
ietadm --op update --tid=1 --params=MaxConnections=2.
/etc/ietd.confファイルでは、このパラメータに対応する行が
MaxConnections 2のように指定されています。
警告
ietadmユーティリティによる変更は、システムに対して永久的なものでは
ありません。これらの変更は、/etc/ietd.conf環境設定ファイルに追加
しない限り、次の再起動で失われます。ネットワークでのiSCSIの利用方法
によっては、これによって重大な問題が発生する可能性があります。
ietadmユーティリティには、他にも使用可能なオプションがあります。
ietadm -hを使用して、概要をつかんでください。また、省略形も利用でき
ます。省略形には、ターゲットID (tid)、セッションID (sid)、および接続ID
(cid)などがあります。これらの情報は、/proc/net/iet/sessionにもあり
ます。
14.3 iSCSIイニシエータの設定
任意のiSCSIターゲットに接続するには、iSCSIイニシエータ(iSCSIクライアン
トとも呼ぶ)を使用できます。これは、14.2項 「iSCSIターゲットのセットアッ
プ」 (265 ページ)で説明されているターゲットソリューションだけに限りませ
ん。iSCSIイニシエータの設定には、利用可能なiSCSIターゲットの検出と、
276
ストレージ管理ガイド
iSCSIセッションの設定という2つの主要ステップがあります。どちらの設定
も、YaSTを使って行うことができます。
• 14.3.1項 「YaSTを使ったiSCSIイニシエータの設定」
• 14.3.2項 「手動によるiSCSIイニシエータの設定」
• 14.3.3項 「iSCSIクライアントデータベース」
(277 ページ)
(281 ページ)
(283 ページ)
14.3.1 YaSTを使ったiSCSIイニシエータの設
定
YaSTの[iSCSIイニシエータの概要]が3つのタブに分割されます。
• サービス: [サービス]タブでは、ブート時にiSCSIイニシエータを有効に
できます。固有の[イニシエータ名]とディスカバリに使用するiSNSサー
バも設定できます。iSNSのデフォルトポートは3205です。
• 接続したターゲット: [Connected Targets][タブには、現在接続している
iSCSIターゲットの概要が表示されます。]このタブにも、[検出されたター
ゲット]タブのように、システムに新しいターゲットを追加するオプショ
ンが用意されています。
このページでは、ターゲットデバイスを選択して、各iSCSIターゲットデバ
イスの起動時の設定を切り替えることができます。
• 自動: このオプションは、iSCSIサービス自体の起動時に接続する
iSCSIターゲットに使用されます。これが通常の設定です。
• Onboot(起動時): このオプションは、起動時、つまりルート(/)がiSCSI
上にある場合に接続するiSCSIターゲットに使用します。したがっ
て、iSCSIターゲットデバイスはサーバの起動時にinitrdによって評価
されます。
• 検出されたターゲット: [検出されたターゲット]では、ネットワーク内の
iSCSIターゲットを手動で検出することができます。
• 14.3.1.1項 「iSCSIイニシエータの設定」
(278 ページ)
• 14.3.1.2項 「iSNSによるiSCSIターゲットの検出」 (279 ページ)
IPネットワークの大容量記憶域: iSCSI
277
• 14.3.1.3項 「iSCSIターゲットの手動検出」
(280 ページ)
• 14.3.1.4項 「iSCSIターゲットデバイスの起動設定」
(281 ページ)
14.3.1.1 iSCSIイニシエータの設定
1 YaSTを、rootユーザとして起動します。
2 [ネットワークサービス][iSCSIイニシエータ]を選択します。
[iSCSIイニシエータの概要]ページで[サービス]タブが選択された状態
で、YaSTが開きます。
3 [サービスの開始]領域で、次のいずれかを選択します。
• 起動時: その後の再起動時には、イニシエータサービスが自動的に開始
します。
• 手動(デフォルト): サービスを手動で開始します。
278
ストレージ管理ガイド
4 [イニシエータ名]を指定、または確認します。
このサーバ上のiSCSIイニシエータに、正しい形式のiSCSI修飾名(IQN)を指
定します。イニシエータ名はネットワーク全体で固有のものでなければな
りません。IQNは次の一般的なフォーマットを使用します。
iqn.yyyy-mm.com.mycompany:n1:n2
ここでn1とn2はアルファベットか数字です。次に例を示します。
iqn.1996-04.de.suse:01:9c83a3e15f64
[イニシエータ名]には、サーバ上の/etc/iscsi/initiatorname
.iscsiファイルから対応する値が自動的に入力されます。
サーバがiBFT(iSCSI Boot Firmware Table)をサポートしている場合は、[イ
ニシエータ名]にはIBFT内の対応する値が入力され、このインタフェース
ではイニシエータ名を変更できません。代わりにBIOSセットアップを使用
して変更してください。iBFTは、サーバのiSCSIターゲットとイニシエータ
の説明を含む、iSCSIの起動プロセスに便利な各種パラメータを含んだ情報
ブロックです。
5 次のいずれかの方法を使用して、ネットワーク上のiSCSIターゲットを検出
します。
• iSNS: iSNS (Internet Storage Name Service)を使用してiSCSIターゲットを検
出するには、続いて14.3.1.2項 「iSNSによるiSCSIターゲットの検
出」 (279 ページ)を実行します。
• 検出されたターゲット: iSCSIターゲットデバイスを手動で検出するに
は、続いて14.3.1.3項 「iSCSIターゲットの手動検出」 (280 ページ)を実行
します。
14.3.1.2 iSNSによるiSCSIターゲットの検出
このオプションを使用する前に、ご使用の環境内でiSNSサーバをインストー
ルし、設定しておく必要があります。詳細については、第13章 Linux用
iSNS (247 ページ)を参照してください。
IPネットワークの大容量記憶域: iSCSI
279
1 YaSTで[iSCSIイニシエータ]を選択し、次に[サービス]タブを選択しま
す。
2 iSNSサーバのIPアドレスとポートを指定します。
デフォルトのポートは3205です。
3 [iSCSIイニシエータの概要]ページで、[完了]をクリックして変更内容
を保存、および適用します。
14.3.1.3 iSCSIターゲットの手動検出
iSCSIイニシエータを設定しているサーバからアクセスする各iSCSIターゲット
サーバについて、次の手順を繰り返し実行します。
1 YaSTで[iSCSIイニシエータ]を選択し、次に[検出されたターゲット]タ
ブを選択します。
2 [検出]をクリックして[iSCSIイニシエータの検出]ダイアログボックス
を開きます。
3 IPアドレスを入力し、必要に応じてポートを変更します。
デフォルトポートは3260です。
4 認証が必要な場合は、[認証なし]の選択を解除して、[受信]または[送
信]認証用の資格情報を指定します。
5 [次へ]をクリックして、検出を開始し、iSCSIターゲットサーバに接続し
ます。
6 資格情報が必要な場合は、検出成功後、[ログイン]を使用してターゲッ
トを有効化します。
指定したiSCSIターゲットを使用するための、認証資格情報の提供を促され
ます。
7 [次へ]をクリックして、設定を完了します
作業が正常に完了すると、[Connected Targets]にターゲットが表示されま
す。
280
ストレージ管理ガイド
これで、仮想iSCSIデバイスを利用できるようになりました。
8 [iSCSIイニシエータの概要]ページで、[完了]をクリックして変更内容
を保存、および適用します。
9 lsscsiコマンドを使用すると、iSCSIターゲットデバイスのローカルデバ
イスパスを検出することができます。
lsscsi
[1:0:0:0]
disk
IET
VIRTUAL-DISK
0
/dev/sda
14.3.1.4 iSCSIターゲットデバイスの起動設定
1 YaSTで、[iSCSIイニシエータ]を選択し、次に[接続したターゲット]タ
ブを選択して、現在サーバに接続されているiSCSIターゲットデバイスの一
覧を表示することができます。
2 管理するiSCSIターゲットデバイスを選択します。
3 [起動の切り替え]をクリックして設定を変更します。
• 自動: このオプションは、iSCSIサービス自体の起動時に接続するiSCSI
ターゲットに使用されます。これが通常の設定です。
• Onboot(起動時): このオプションは、起動時、つまりルート(/)がiSCSI上
にある場合に接続するiSCSIターゲットに使用します。したがって、iSCSI
ターゲットデバイスはサーバの起動時にinitrdによって評価されます。
4 [完了]をクリックして、変更を保存、および適用します。
14.3.2 手動によるiSCSIイニシエータの設定
iSCSI接続の検出や設定を行うには、iscsidが稼働していなければなりません。
初めて検出(ディスカバリ)を実行する場合、iSCSIイニシエータの内部データ
ベースが、/var/lib/open-iscsiディレクトリに作成されます。
ディスカバリがパスワードにより保護されている場合は、iscsidに認証情報を
渡します。最初にディスカバリを実行する時には内部データベースが存在し
IPネットワークの大容量記憶域: iSCSI
281
ていないため、現時点でこれは使用できません。かわりに、/etc/iscsid
.conf設定ファイルを編集して、情報を指定する必要があります。パスワー
ド情報をiscsidに渡すには、/etc/iscsid.confファイルの最後に、次の行
を追加します。
discovery.sendtargets.auth.authmethod = CHAP
discovery.sendtargets.auth.username = <username>
discovery.sendtargets.auth.password = <password>
ディスカバリは、受け取ったすべての値を内部データベースに保存します。
また、検出したターゲットをすべて表示します。次のコマンドで、このディ
スカバリを実行します。
iscsiadm -m discovery --type=st --portal=<targetip>
次のように出力されます。
149.44.171.99:3260,1 iqn.2006-02.com.example.iserv:systems
iSNSサーバで使用できるターゲットを検出するには、次のコマンドを使用し
ます。
iscsiadm --mode discovery --type isns --portal <targetip>
iSCSIターゲットに定義されている各ターゲットが、それぞれ1行に表示され
ます。保存されたデータの詳細については、14.3.3項 「iSCSIクライアントデー
タベース」 (283 ページ)を参照してください。
iscsiadmコマンドの--loginオプションを使用すると、必要なすべてのデバイ
スが作成されます。
iscsiadm -m node -n iqn.2006-02.com.example.iserv:systems --login
lsscsiコマンドを実行すると、新しく生成されたデバイスが表示されます。こ
れらのデバイスをマウントして、アクセスできるようになりました。
282
ストレージ管理ガイド
14.3.3 iSCSIクライアントデータベース
iSCSIイニシエータが検出した情報は、/var/lib/open-iscsiに格納され
ている2つのデータベースファイルに保管されます。1つは、ディスカバリが
検出したターゲット用のデータベースで、もう1つは検出したノード用のデー
タベースです。データベースにアクセスする場合、まずデータをディスカバ
リ用データベースから取得するのか、またはノードデータベースから取得す
るのかを指定する必要があります。指定するには、iscsiadmコマンドの-m
discoveryまたは-m nodeパラメータを使用します。iscsiadmコマンドに、
どちらかのパラメータを指定して実行すると、そのデータベースに保管され
ているレコードの概要が表示されます。
iscsiadm -m discovery
149.44.171.99:3260,1 iqn.2006-02.com.example.iserv:systems
この例のターゲット名はiqn.2006-02.com.example.iserv:systemsで
す。このデータセットに関連する操作を行う場合に、この名前が必要になり
ます。ID iqn.2006-02.com.example.iserv:systemsのデータレコード
のコンテンツを調べるには、次のコマンドを使用します。
iscsiadm -m node --targetname iqn.2006-02.com.example.iserv:systems
node.name = iqn.2006-02.com.example.iserv:systems
node.transport_name = tcp
node.tpgt = 1
node.active_conn = 1
node.startup = manual
node.session.initial_cmdsn = 0
node.session.reopen_max = 32
node.session.auth.authmethod = CHAP
node.session.auth.username = joe
node.session.auth.password = ********
node.session.auth.username_in = <empty>
node.session.auth.password_in = <empty>
node.session.timeo.replacement_timeout = 0
node.session.err_timeo.abort_timeout = 10
node.session.err_timeo.reset_timeout = 30
node.session.iscsi.InitialR2T = No
node.session.iscsi.ImmediateData = Yes
....
これらの変数の値を変更する場合は、iscsiadmコマンドでupdateオプショ
ンを使用します。たとえば、初期化時にiscidをiSCSIターゲットにログインさ
せる場合は、値にautomaticとnode.startupを設定します。
IPネットワークの大容量記憶域: iSCSI
283
iscsiadm -m node -n iqn.2006-02.com.example.iserv:systems --op=update
--name=node.startup --value=automatic
deleteで、古くなったデータセットを削除します。ターゲット
iqn.2006-02.com.example.iserv:systemsが有効なレコードでなくなっ
た場合は、次のコマンドでこのレコードを削除してください。
iscsiadm -m node -n iqn.2006-02.com.example.iserv:systems --op=delete
重要
このオプションでは、確認のメッセージを表示せずかにレコードを削除す
るため、使用する際には細心の注意を払うようにしてください。
検出したすべてのターゲットのリストを取得するには、iscsiadm -m node
コマンドを実行します。
14.4 インストール時のiSCSIディスクの
使用
iSCSI対応のファームウェアを使用している場合は、i386、x86_64、および
ppc64アーキテクチャ上のiSCSIディスクからの起動がサポートされています。
インストール時にiSCSIディスクそ使用するには、次のパラメータをブートオ
プション行に追加する必要があります。
withiscsi=1
インストール中に、インストールプロセスで使用するiSCSIディスクをシステ
ムに接続するオプションが記載された、追加の画面が表示されます。
14.5 iSCSIのトラブルシューティング
• 14.5.1項 「ホットプラグでiSCSIターゲットをマウントできない」
(285 ページ)
284
ストレージ管理ガイド
• 14.5.2項 「iSCSIトラフィックのデータパッケージがドロップされる」
(285 ページ)
• 14.5.3項 「LVMでiSCSIボリュームを使用する」
(286 ページ)
• 14.5.4項 「設定ファイルが手動に設定されていると、iSCSIターゲットがマ
ウントされる」 (287 ページ)
14.5.1 ホットプラグでiSCSIターゲットをマウ
ントできない
SLES 10では、iSCSIターゲットをマウントするため、/etc/fstabファイル
でhotplugオプションをデバイスに追加できました。次に例を示します。
/dev/disk/by-uuid-blah /oracle/db
ext3
hotplug,rw
0 2
SLES 11では、hotplugオプションは機能しません。代わりに、nofailオプ
ションを使用してください。次に例を示します。
/dev/sdb1
/mnt/mountpoint
ext3
acl,user,nofail
0 0
『TID 7004427: /etc/fstab entry does not mount iSCSI device on boot up [http://
www.novell.com/support/php/search.do?cmd=displayKC&docType=
kc&externalId=7004427]』を参照してください。
14.5.2 iSCSIトラフィックのデータパッケージ
がドロップされる
ファイアウォールは、ビジーになるとパケットをドロップすることがありま
す。SUSEファイアウォールのデフォルトは、3分後にパケットをドロップす
ることです。iSCSIトラフィックのパケットがドロップされていることが分
かった場合は、ファイアウォールがビジーになったとき、パケットをドロッ
プする代わりにキューに入れるように、SUSEファイアウォールを設定するこ
とができます。
IPネットワークの大容量記憶域: iSCSI
285
14.5.3 LVMでiSCSIボリュームを使用する
iSCSIターゲットでLVMを使用する際には、この項のトラブルシューティング
のヒントを使用してください。
• 14.5.3.1項 「ブート時にiSCSIイニシエータの検出が行われることを確認す
る」 (286 ページ)
• 14.5.3.2項 「iSCSIターゲットの検出がブート時に起きることを確認する」
(286 ページ)
14.5.3.1 ブート時にiSCSIイニシエータの検出が行われ
ることを確認する
iSCSIイニシエータをセットアップする際には、udevがブート時にiSCSIデバイ
スを検出し、LVMによるそれらのデバイスの使用をセットアップできるよう
に、ブート時の検出を有効にしてください。
14.5.3.2 iSCSIターゲットの検出がブート時に起きるこ
とを確認する
SLES 11のudevでは、デバイスのデフォルトセットアップを提供することを
思い出してください。デバイスを作成するすべてのアプリケーションに、ブー
ト時に実行されるランレベル設定があることを確認してください。udevがシ
ステムのスタートアップ時にそれらを認識し、デバイスを割り当てることが
できます。アプリケーションまたはサービスが後まで起動しない場合は、udev
がブート時のように自動的にデバイスを作成することはありません。
[YaST]でLVM2とiSCSIのランレベル設定を確認するには、[システム][シ
ステムサービス(ランレベル)][エキスパートモード]の順に選択します。次
のサービスをブート時に有効にします(B)。
boot.lvm
boot.open-iscsi
open-iscsi
286
ストレージ管理ガイド
14.5.4 設定ファイルが手動に設定されている
と、iSCSIターゲットがマウントされる
Open-iSCSIは、/etc/iscsi/iscsid.confファイルでnode.startupオプ
ションが手動に設定されている場合でも、設定ファイルを手動で変更すれば、
起動時にターゲットをマウントできます。
/etc/iscsi/nodes/<ターゲット_名>/<ip_アドレス,ポート>/default
ファイルを確認してください。このファイルには、/etc/iscsi/iscsid
.confファイルを上書きするnode.startup設定が含まれています。YaSTイ
ンターフェイスを使用してマウントオプションを手動に設定すると、 /etc/
iscsi/nodes/<ターゲット_名>/<ip_アドレス,ポート>/defaultファイ
ルでもnode.startup = manualが設定されます。
14.6 追加情報
iSCSIプロトコルは、数年に渡って利用されています。そのため、iSCSIとSAN
ソリューションの比較、ベンチマークテスト、ハードウェアソリューション
の解説など、さまざまなレビューや参考資料が発表または公開されています。
open-iscsiの詳細に関する代表的なサイトを以下に示します。
• Open-iSCSI Project [ http://www.open-iscsi.org/ ]
• AppNote: iFolder on Open Enterprise Server Linux Cluster using iSCSI [ http://
www.novell.com/coolsolutions/appnote/15394.html ]
このほか、オンラインマニュアルも利用できます。iscsiadm、iscsid、ietd
.confおよびietdの各マニュアルページのほか、環境設定ファイルのサンプ
ル/etc/iscsid.confも参照してください。
IPネットワークの大容量記憶域: iSCSI
287
IP ネットワークの大容量記憶
域: iSCSI LIOターゲットサーバ
15
LIO (linux-iscsi.org)は、Linux用の標準のオープンソースマルチプロトコルSCSI
ターゲットです。LIOは、Linuxカーネルのバージョン2.6.38以降において、
Linuxにおける標準の統一ストレージターゲットとして、STGT (SCSI Target)フ
レームワークにとって代わりました。YaSTは、SUSE Linux Enterprise Server
11 SP3以降で、iSCSI LIOターゲットサーバソフトウェアをサポートしていま
す。
この項では、YaSTを使用してiSCSI LIOターゲットサーバを構成し、iSCSI LIO
のターゲットデバイスを設定する方法について説明します。任意のiSCSIイニ
シエータソフトウェアを使用して、ターゲットデバイスにアクセスすること
ができます。
• 15.1項 「iSCSI LIOターゲットサーバソフトウェアのインストール」
(290 ページ)
• 15.2項 「iSCSI LIOターゲットサービスの開始」
(293 ページ)
• 15.3項 「iSCSI LIOターゲットおよびクライアントのディスカバリに対する
認証の設定 」 (298 ページ)
• 15.4項 「ストレージスペースの準備」
(302 ページ)
• 15.5項 「iSCSI LIOターゲットグループの設定」
(306 ページ)
• 15.6項 「iSCSI LIOターゲットグループの変更」
(318 ページ)
• 15.7項 「iSCSI LIOターゲットグループの削除」
(321 ページ)
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
289
• 15.8項 「iSCSI LIOターゲットサーバのトラブルシューティング」
(323 ページ)
• 15.9項 「iSCSI LIOターゲットの用語」
(324 ページ)
15.1 iSCSI LIOターゲットサーバソフト
ウェアのインストール
YaSTソフトウェア管理ツールを使用して、iSCSI LIOターゲットサーバソフト
ウェアを、SUSE Linux Enterprise Server 11 SP3サーバ上でiSCSI LIOターゲット
デバイスを作成したい場所にインストールします。
1 YaSTを、rootユーザとして起動します。
2 [ソフトウェア][ソフトウェア管理]の順に選択します。
3 [検索]を選択し、lioと入力して、[検索]をクリックします。
4 iSCSI LIOターゲットサーバのパッケージを選択します。
290
iSCSI LIOターゲットサー
バのパッケージ
説明
yast2-iscsi-lio
-server
iSCSI LIOターゲットデバイスの設定用
に、YaST内にGUIインタフェースを提供
します。
lio-utils
yast2-iscsi-lio-serverが使用す
る、iSCSI LIOターゲットデバイスの設
定および制御用のAPIを提供します。
lio-mibs
Net-SNMPエージェントのダイナミック
ロードモジュール(dlmod)機能を使用し
て、iSCSI LIOターゲットデバイスの
SNMP (Simple Network Management
Protocol)モニタリングを提供します。
ストレージ管理ガイド
iSCSI LIOターゲットサー
バのパッケージ
説明
SNMP v1、v2c、およびv3に対応してい
ます。環境設定ファイルは、/etc/
snmp/snmpd.confです。
lio-mibsソフトウェアは、perl-SNMP
およびnet-snmpパッケージを使用しま
す。
Net-SNMPの詳細については、オープン
ソースのNet-SNMP Project [http://www
.net-snmp.org/]を参照してくださ
い。
lio-utils-debuginfo
lio-utilsパッケージ用のデバッグ情
報を提供します。このパッケージは、
lio-utils用のアプリケーションの開
発またはデバッグの際に仕様できます。
5 ダイアログボックスの右下部にある[承諾]をクリックして、選択したパッ
ケージをインストールします。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
291
6 自動変更を承認するかどうを尋ねるメッセージが表示されたら、[続行]
をクリックして、lio-utils, perl-SNMP, およびnet-snmpパッケージに
対するiSCSI LIOターゲットサーバの依存性を承諾します。
292
ストレージ管理ガイド
7 YaSTを終了して再起動し、[ネットワークサービス]をクリックして、[
iSCSI LIOターゲット]オプションがメニューにあることを確認します。
8 15.2項 「iSCSI LIOターゲットサービスの開始」 (293 ページ)に進みます。
15.2 iSCSI LIOターゲットサービスの開
始
iSCSI LIOターゲットサービスは、マニュアルで開始するようデフォルトで設
定されています。同サービスを、システムの再起動時に自動的に開始するよ
う設定できます。サーバでファイアウォールを使用していて、iSCSI LIOター
ゲットをほかのコンピュータでも利用可能としたい場合は、ターゲットへの
アクセスに使用する各アダプタ用に、ファイアウォール内のポートを開放す
る必要があります。TCPポート3260が、iSCSIプロトコル用のポート番号です。
これは、IANA (Internet Assigned Numbers Authority)により定義されています。
• 15.2.1項 「iSCSI LIO起動の初期設定」
(294 ページ)
• 15.2.2項 「iSCSI LIOターゲットおよびコマンドラインのマニュアルでの開
始」 (297 ページ)
• 15.2.3項 「YaSTでのiSCSI LIOターゲットのマニュアルでの開始」
(297 ページ)
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
293
15.2.1 iSCSI LIO起動の初期設定
iSCSI LIOターゲットサーバサービスの設定:
1 rootユーザとしてiSCSI LIOターゲットサーバにログインして、端末コン
ソールを起動します。
2 /etc/init.d/targetデーモンが実行中であることを確認します。コマ
ンドプロンプトで、次のように入力します
/etc/init.d/target start
コマンドから、デーモンが起動した、またはデーモンがすでに実行中であ
ることを確認するメッセージが返されます。
3 YaSTを、rootユーザとして起動します。
4 YaSTコントロールセンターで、[ネットワークサービス]を選択して、次
に[iSCSI LIOターゲット]を選択します。
「lio」を検索してから、[iSCSI LIOターゲット]を選択することもできま
す。
5 [iSCSI LIOターゲット概要]ダイアログボックスで、[サービス]タブを選
択します。
294
ストレージ管理ガイド
6 [サービスを開始]で、iSCSI LIOターゲットサービスの開始方法を指定し
ます。
• ブート時: サービスは、サーバの再起動時に自動的に開始します。
• 手動: (デフォルト)サーバの再起動後、マニュアルでサービスを開始する
必要があります。ターゲットデバイスは、サービスを開始するまで利用
できません。
7 サーバでファイアウォールを使用していて、iSCSI LIOターゲットをほかの
コンピュータでも利用可能としたい場合は、ターゲットへのアクセスに使
用する各アダプタインタフェース用に、ファイアウォール内のポートを開
放します。
ファイアウォール設定は、デフォルトでは無効になっています。この設定
は、サーバ上にファイアウォールを展開しない限り不要です。デフォルト
のポート番号は3260です。このポートがネットワークインタフェースのす
べてに対してクローズしている場合、iSCSI LIOターゲットはほかのコン
ピュータでは利用できません。
7a [サービス]タブで、[ファイアウォールのポートを開く]チェッ
クボックスをオンにして、ファイアウォール 設定を有効にします。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
295
7b [ファイアウォールの詳細]をクリックして、使用するネットワー
クインタフェースを確認または設定します。
すべての利用可能なネットワークインタフェースが一覧表示され、
デフォルトではすべてが選択されています。
7c 各インタフェースについて、それに対するポートを開くか閉じるか
を指定します。
• 開く: ポートを開くには、インタフェースのチェックボックスをオ
ンにします。[すべて選択]をクリックして、インタフェースの
すべてでポートを開くこともできます。
• 閉じる: ポートを閉じるには、インタフェースのチェックボックス
を選択解除します。[すべて選択解除]をクリックして、インタ
フェースのすべてでポートを閉じることもできます。
7d [OK]をクリックして、変更内容を保存して適用します。
7e 設定の確認を求めるメッセージが表示されたら、[はい]をクリッ
クして先に進むか、[いいえ]をクリックして、ダイアログボック
スに戻って必要な変更を行います。
296
ストレージ管理ガイド
8 [完了]をクリックして、iSCSI LIOターゲットサービスの設定を保存して
適します。
15.2.2 iSCSI LIOターゲットおよびコマンドラ
インのマニュアルでの開始
1 rootユーザとしてログインし、端末コンソールを起動します。
2 コマンドプロンプトで、次のように入力します
/etc/init.d/target start
コマンドから、デーモンが起動した、またはデーモンがすでに実行中であ
ることを確認するメッセージが返されます。
15.2.3 YaSTでのiSCSI LIOターゲットのマニュ
アルでの開始
1 YaSTを、rootユーザとして起動します。
2 YaSTコントロールセンターで、[システム]を選択して、次に[システム
サービス(Runlevel)]を選択します。
3 [YaSTシステムサービス]ダイアログボックスで、[エキスパートモード]
を選択し、次にサービスのリストから[target] ([TCM/ConfigFS and LIOTarget])]を選択します。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
297
4 右下で、[開始/中止/更新][今すぐ開始]を選択します。
5 [OK]をクリックします。
15.3 iSCSI LIOターゲットおよびクライ
アントのディスカバリに対する認
証の設定
iSCSI LIOターゲットサーバソフトウェアは、PPP-CHAP (Point-to-Point Protocol
Challenge Handshake Authentication Protocol)をサポートしています。これは、
Internet Engineering Task Force (IETF) RFC 1994 [http://www.ietf.org/
rfc/rfc1994.txt]で定義されている、3方向の認証方法です。iSCSI LIOター
ゲットサーバはこの認証方法を、ターゲット上のファイルへのアクセスにで
はなく、iSCSI LIOのターゲットとクライアントのディスカバリ用に使用しま
す。ディスカバリへのアクセスを制限しない場合は、[認証なし]を選択し
ます。デフォルトでは[認証なし]のオプションが有効になっています。ディ
298
ストレージ管理ガイド
スカバリに対する認証を有効にしない場合、その設定は、すべてのiSCSI LIO
ターゲットグループに適用されます。
重要
運用環境では、ターゲットおよびクライアントのディスカバリに認証を使
用することを推奨します。
よりセキュアな設定に対する認証が必要な場合は、incoming認証、outgoing認
証またはその両方を使用できます。 [incoming認証]では、iSCSIイニシエー
タに、iSCSI LIOターゲット上でディスカバリを実行するパーミッションがあ
ることを証明するよう求めます。イニシエータは、incomingのユーザ名とパス
ワードを入力する必要があります。[outgoing認証]では、iSCSI LIOターゲッ
トに、自らが目的のターゲットであることをイニシエータに対して証明する
よう求めます。iSCSI LIOターゲットは、outgoingのユーザ名とパスワードを、
iSCSIイニシエータに提供する必要があります。ユーザ名とパスワードの組み
合わせは、incomingとoutgoingディスカバリで異なっても構いません。
iSCSI LIOターゲットに対して認証の初期設定を行うには
1 rootユーザとしてiSCSI LIOターゲットサーバにログインして、端末コン
ソールを起動します。
2 /etc/init.d/targetデーモンが実行中であることを確認します。コマ
ンドプロンプトで、次のように入力します
/etc/init.d/target start
コマンドから、デーモンが起動した、またはデーモンがすでに実行中であ
ることを確認するメッセージが返されます。
3 YaSTを、rootユーザとして起動します。
4 YaSTコントロールセンターで、[ネットワークサービス]を選択して、次
に[iSCSI LIOターゲット]を選択します。
「lio」を検索してから、[iSCSI LIOターゲット]を選択することもできま
す。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
299
5 [iSCSI LIOターゲット概要]ダイアログボックスで、[グローバル]タブを
選択して、認証の設定を行います。認証設定は、デフォルトでは無効になっ
ています。
6 iSCSI LIOターゲットに対して認証を求めるかどうかを指定します。
• 認証を無効にする: (デフォルト)このサーバ上のディスカバリに対して
incomingとoutgoingの認証を無効にするには、[認証なし]チェックボッ
クスをオンにします。このサーバ上のすべてのiSCSI LIOターゲットは、
同じネットワーク上のどのiSCSIイニシエータクライアントによっても検
出することができます。このサーバは、ディスカバリに対する認証を必
要としない、同じネットワーク上のどのiSCSIイニシエータクライアント
も検出することができます。ステップ 7(301 ページ)をスキップしてステッ
プ 8 (302 ページ)に進みます。
300
ストレージ管理ガイド
• 認証を有効にする: [認証なし]チェックボックスを、選択解除します。
[incoming認証]と[outgoing認証]の両方のチェックボックスが自動的
にオンになります。ステップ 7 (301 ページ)に進みます。
7 incomingディスカバリ、outgoingディスカバリ、またはその両方に必要な認
証資格情報を設定します。ユーザ名とパスワードの組み合わせは、incoming
とoutgoingディスカバリで異なっても構いません。
7a 次のいずれかを行って、incoming認証を設定します。
• incoming認証を無効にする: [incoming認証]チェックボックス
を、選択解除します。このサーバ上のすべてのiSCSI LIOターゲッ
トは、同じネットワーク上のどのiSCSIイニシエータクライアント
によっても検出することができます。
• incoming認証を有効にする: [incoming認証]チェックボックスを
オンにして、iSCSI LIOターゲットのincomingディスカバリに使用
する、既存のユーザ名とパスワードの組み合わせを指定します。
7b 次のいずれかを行って、outgoing認証を設定します。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
301
• outgoing認証を無効にする: [outgoing認証]チェックボックス
を、選択解除します。このサーバは、ディスカバリに対する認証
を必要としない、同じネットワーク上のどのiSCSIイニシエータク
ライアントも検出することができます。
• outgoing認証を有効にする: [outgoing認証]チェックボックスを
オンにして、iSCSIイニシエータクライアントのoutgoingディスカ
バリに使用する、既存のユーザ名とパスワードの組み合わせを指
定します。
8 [完了]をクリックして、設定を保存して適用します。
15.4 ストレージスペースの準備
iSCSI LIOターゲットの設定により、既存のブロックデバイスをiSCSIイニシ
エータにエクスポートします。未フォーマットのパーティションまたはデバ
イスをサーバ上に設定して、ターゲットデバイスで使用するストレージスペー
スを準備する必要があります。iSCSI LIO ターゲットは、Linux、Linux LVM、
またはLinux RAIDファイルシステムIDで未フォーマットのパーティションを
使用できます。
重要
iSCSIターゲットとして使用するデバイスやパーティションを設定したら、
ローカルパス経由で直接アクセスしないでください。作成時にはマウント
ポイントは指定しないでください。
• 15.4.1項 「デバイスのパーティショニング」
(302 ページ)
• 15.4.2項 「仮想環境でのデバイスのパーティション分割」
(305 ページ)
15.4.1 デバイスのパーティショニング
1 YaSTを、rootユーザとして起動します。
302
ストレージ管理ガイド
2 YaSTで、[システム][パーティショナ]を選択します。
3 パーティショナの使用に関する警告に対して[はい]を選択して続行しま
す。
4 [パーティション]ページの下部で、[追加]をクリックしてパーティショ
ンを作成します。ただしフォーマットはせず、マウントもしないでくださ
い。
4a [エキスパートパーティショナ]ページで、[ハードディスク]を選択
して、設定したいディスクのリーフノード名(sdcなど)を選択しま
す。
4b [プライマリパーティション]を選択し、[次へ]をクリックしま
す。
4c 使用する容量を指定して、[次へ]をクリックします。
4d [フォーマットオプション]で、[フォーマットしない]を選択し
て、ドロップダウンリストからファイルシステムのIDタイプを選択
します。
iSCSI LIO ターゲットは、Linux (0x83)、Linux LVM (0x8E)、または
Linux RAID (0xFD)ファイルシステムIDで未フォーマットのパーティ
ションを使用できます。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
303
4e [マウントのオプション]で、[マウントしない]を選択します。
4f [完了]をクリックします。
5 ステップ 4 (266 ページ)を繰り返して、後でiSCSI LIOターゲットとして使用
したい領域に、未フォーマットのパーティションを作成します。
304
ストレージ管理ガイド
6 [次へ][完了]をクリックして変更を保存し、YaSTを閉じます。
15.4.2 仮想環境でのデバイスのパーティショ
ン分割
仮想マシンのゲストサーバを、iSCSI LIOターゲットサーバとして使用できま
す。この項では、Xen仮想マシンにパーティションを割り当てる方法を説明し
ます。また、SUSE Linux Enterprise Server 11 SP2以降でサポートされている、
その他の仮想環境も使用できます。
Xen仮想環境で、iSCSI LIOターゲットデバイスに使用するストレージスペー
スをゲストの仮想マシンに割り当て、ゲスト環境内の仮想ディスクとしてそ
のスペースにアクセスします。各仮想ディスクは、ディスク全体、パーティ
ション、ボリュームなどの物理ブロックデバイスでも、Xenホストサーバ上の
大規模な物理ディスク上の単一イメージファイルが仮想ディスクになってい
る、ファイルバックディスクイメージのいずれでも可能です。最適なパフォー
マンスを得るためには、物理ディスクまたはパーティションから各仮想ディ
スクを作成してください。ゲストの仮想マシンに仮想ディスクを設定したら、
ゲストサーバを起動し、物理サーバの場合と同じ方法で、新しいブランクの
仮想ディスクをiSCSIターゲットデバイスとして設定します。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
305
ファイルバックディスクイメージがXenホストサーバ上に作成され、Xenゲス
トサーバに割り当てられます。デフォルトでは、Xenはファイルバックディス
クイメージを/var/lib/xen/images/vm_nameディレクトリに保存します。
ここでvm_nameは仮想マシンの名前です。
たとえば、サイズが4GBの/var/lib/xen/images/vm_one/xen--0ディス
クイメージを作成する場合は、まず、ディレクトリが存在することを確認し、
次に、イメージ自体を作成します。
1 ホストサーバにrootユーザとしてログインします。
2 端末コンソールプロンプトで次のコマンドを入力します。:
mkdir -p /var/lib/xen/images/vm_one
dd if=/dev/zero of=/var/lib/xen/images/vm_one/xen-0 seek=1M bs=4096 count=1
3 Xen設定ファイルで、ファイルシステムイメージをゲスト仮想マシンに割
り当てます。
4 ゲストサーバにrootユーザとしてログインし、YaSTを使用して15.4.1項
「デバイスのパーティショニング」 (302 ページ)の手順で仮想ブロックデバ
イスを設定します。
15.5 iSCSI LIOターゲットグループの設
定
YaSTを使用して、iSCSI LIOターゲットデバイスを設定することができます。
YaSTでは、lio-utilsソフトウェアにより提供されるAPIを使用します。
iSCSI LIO ターゲットは、Linux、Linux LVM、またはLinux RAIDファイルシ
ステムIDで未フォーマットのパーティションを使用できます。
重要
始める前に、15.4項 「ストレージスペースの準備」 (302 ページ)に記載して
いるように、iSCSI LIOターゲットとして使用する未フォーマットのパーティ
ションを作成してください。
306
ストレージ管理ガイド
1 rootユーザとしてiSCSI LIOターゲットサーバにログインして、端末コン
ソールを起動します。
2 /etc/init.d/targetデーモンが実行中であることを確認します。コマ
ンドプロンプトで、次のように入力します
/etc/init.d/target start
コマンドから、デーモンが起動した、またはデーモンがすでに実行中であ
ることを確認するメッセージが返されます。
3 YaSTを、rootユーザとして起動します。
4 YaSTコントロールセンターで、[ネットワークサービス]を選択して、次
に[iSCSI LIOターゲット]を選択します。
「lio」を検索してから、[iSCSI LIOターゲット]を選択することもできま
す。
5 [iSCSI LIOターゲット概要]ダイアログボックスで、[ターゲット]タブを
選択して、ターゲットの設定を行います。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
307
6 [追加]をクリックして、新しいiSCSI LIOのターゲットグループとデバイ
スを定義します。
iSCSI LIOターゲットソフトウェアにより、[ターゲット]、[識別子]、
[ポータルグループ]、[IPアドレス]、および[ポート番号]の各フィー
ルドが自動的に記入されます。[認証を使用する]が、デフォルトで選択
されています。
308
ストレージ管理ガイド
6a 複数のネットワークインタフェースがある場合は、IPアドレスのド
ロップダウンリストを使って、このターゲットグループ用に使用す
るネットワークインタフェースのIPアドレスを選択します。
6b このターゲットグループに対してクライアント認証を求めたい場合
は、[認証を使用する]を選択します。
重要
運用環境では、認証を求めることが推奨されます。
6c [追加]をクリックして、ブラウズしてデバイスまたはパーティショ
ンを選択し、名前を指定してから、[OK]をクリックします。
0から始まるLUN番号が自動的に作成されます。フィールドを空にし
ておくと、名前が自動的に生成されます。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
309
6d (オプション)ステップ 6a (309 ページ)からステップ 6c (309 ページ)まで
を繰り返し、このターゲットグループにさらにターゲットを追加し
ます。
6e 目的のターゲットがすべてグループに追加されたら、[次へ]をク
リックします。
7 [iSCSIターゲットクライアントセットアップの変更]ページで、ターゲット
グループ内のLUNへのアクセスを許可されるクライアントに関する情報を
設定します。
310
ストレージ管理ガイド
ターゲットグループに対して1つ以上のクライアントを指定すると、[LUN
を編集]、[認証を編集]、[削除]、および[コピー]の各ボタンが有
効になります。[追加]または[コピー]を使用して、ターゲットグルー
プにさらにクライアントを追加できます。
• 追加: 選択したiSCSI LIOターゲットグループに、新たなクライアントの
エントリを追加します。
• LUNを編集: iSCSI LIOターゲットグループ内のどのLUNが、選択したク
ライアントにマップするかを設定します。割り当てられたターゲットの
それぞれを、任意のクライアントLUNにマップすることができます。
• 認証を編集: 選択したクライアントに対する好みの認証方法を設定しま
す。認証なしを指定することも、incoming認証、outgoing認証、またはそ
の両方を設定することもできます。
• 削除: 選択したクライアントのエントリを、ターゲットグループに割り
当てられたクライアントの一覧から削除します。
• コピー: 同じLUNのマッピングと認証設定を持つ新たなクライアントの
エントリを、選択したクライアントのエントリとして追加します。これ
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
311
により、容易に同じ共有LUNを、クラスタ内の各ノードに順々に割り当
てることができます。
7a [追加]をクリックして、クライアント名を指定し、[TPGからLUN
をインポート]チェックボックスを選択または選択解除してから、
[OK]をクリックして設定を保存します。
7b クライアントのエントリを選択して、[LUNを編集]をクリックし、
LUNのマッピングを変更してiSCSI LIOターゲットグループ内のどの
LUNを選択したクライアントに割り当てるかを指定して、[OK]を
クリックして変更内容を保存します。
iSCSI LIOターゲットグループが複数のLUNで構成されている場合
は、1つまたは複数のLUNを、選択したクライアントに割り当てるこ
とができます。デフォルトでは、グループ内の利用可能なLUNのそ
れぞれが、クライアントLUNに割り当てられます。
LUNの割り当てを変更するには、次の操作の1つ以上を実行します。
312
ストレージ管理ガイド
• 追加: [追加]をクリックして新しい[クライアントLUN]のエン
トリを作成し、[変更]ドロップダウンリストを使用して、それ
にターゲットLUNをマップします。
• 削除: [クライアントLUN]のエントリを選択して、[削除]をク
リックしてターゲットLUNのマッピングを削除します。
• 変更: [クライアントLUN]のエントリを選択し、[変更]ドロッ
プダウンリストを使用して、それにマップするターゲットLUNを
選択します。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
313
一般的な割り当のプランには、次のようなものがあります。
• 1台のサーバが、クライアントとして登録されています。ターゲッ
トグループ内のLUNがすべて、それに割り当てられています。
このグループ化戦略を使用して、特定のサーバに対して、iSCSI
SANストレージを論理的にグループ化することができます。
• 複数の独立したサーバが、クライアントとして登録されています。
1つまたは複数のターゲットLUNが、それぞれのサーバに割り当て
314
ストレージ管理ガイド
られています。それぞれのLUNは、1台のサーバのみに割り当てら
れています。
このグループ化戦略を使用して、データセンター内の特定の部門
またはサービスのカテゴリに対して、iSCSI SANストレージを論理
的にグループ化することができます。
• クラスタの各ノードが、クライアントとして登録されています。
共有のターゲットLUNがすべて、各ノードに割り当てられていま
す。すべてのノードがデバイスに接続されていますが、ほとんど
のファイルシステムに対して、クラスタソフトウェアによってデ
バイスによるアクセスがロックされ、一度に1つのノード上にのみ
デバイスがマウントされます。共有ファイルシステム(OCFS2など)
では、複数のノードが同時に同じファイル構造をマウントし、読
み込みおよび書き込みアクセスを持つ同じファイルを開くことが
可能です。
このグループ化戦略を使用して、特定のサーバクラスタに対して、
iSCSI SANストレージを論理的にグループ化することができます。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
315
7c クライアントのエントリを選択して、[認証を編集]をクリックし、
クライアントに対する認証設定を指定して、[OK]をクリックして
設定を保存します。
[認証なし]とすることも、[incoming認証]、[outgoing認証]、
またはその両方を設定することもできます。各クライアントに対し
て指定できるユーザ名とパスワードの組み合わせは、1つだけです。
クライアントに対するincoming認証とoutgoing認証の資格情報は、異
なっても構いません。資格情報は、クライアントごとに異なっても
構いません。
316
ストレージ管理ガイド
7d このターゲットグループにアクセスできる各iSCSIクライアントにつ
いて、ステップ 7a (312 ページ)からステップ 7c (316 ページ)を繰り返
します。
7e クライアントの割り当てを設定し終わったら、[次へ]をクリック
します。
8 [完了]をクリックして、設定を保存して適用します。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
317
15.6 iSCSI LIOターゲットグループの変
更
以下のようにして、iSCSI LIOターゲットグループに変更を加えることができ
ます。
• ターゲットLUNデバイスをターゲットグループに追加または削除する
• ターゲットグループに対してクライアントを追加または削除する
• ターゲットグループのクライアントに対して、クライアントLUNからター
ゲットLUNへのマッピングを変更する
• クライアント認証(incoming、outgoing、または両方)用のユーザ名とパスワー
ドの資格情報を変更する
iSCSI LIOターゲットグループに対する設定を確認または変更するには:
1 rootユーザとしてiSCSI LIOターゲットサーバにログインして、端末コン
ソールを起動します。
2 /etc/init.d/targetデーモンが実行中であることを確認します。コマ
ンドプロンプトで、次のように入力します
/etc/init.d/target start
コマンドから、デーモンが起動した、またはデーモンがすでに実行中であ
ることを確認するメッセージが返されます。
3 YaSTを、rootユーザとして起動します。
4 YaSTコントロールセンターで、[ネットワークサービス]を選択して、次
に[iSCSI LIOターゲット]を選択します。
「lio」を検索してから、[iSCSI LIOターゲット]を選択することもできま
す。
318
ストレージ管理ガイド
5 [iSCSI LIOターゲット概要]ダイアログボックスで、[ターゲット]タブを
選択して、ターゲットグループの一覧を表示します。
6 変更するiSCSI LIOターゲットグループを選択して、[編集]をクリックし
ます。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
319
7 [iSCSIターゲットLUNのセットアップを変更]ページで、ターゲットグルー
プにLUNを追加し、LUNの割り当てを編集するか、またはターゲットLUN
をグループから削除します。すべてグループに目的の変更が行われたら、
[次へ]をクリックします。
オプションについては、ステップ 6 (308 ページ)の15.5項 「iSCSI LIOター
ゲットグループの設定」 (306 ページ)を参照してください。
8 [iSCSIターゲットクライアントセットアップの変更]ページで、ターゲット
グループ内のLUNへのアクセスを許可されるクライアントに関する情報を
設定します。すべてグループに目的の変更が行われたら、[次へ]をクリッ
クします。
オプションについては、ステップ 7 (310 ページ)の15.5項 「iSCSI LIOター
ゲットグループの設定」 (306 ページ)を参照してください。
9 [完了]をクリックして、設定を保存して適用します。
320
ストレージ管理ガイド
15.7 iSCSI LIOターゲットグループの削
除
iSCSI LIOターゲットグループを削除すると、グループの定義と、クライアン
トに対する関連のセットアップ(LUNのマッピングや認証資格情報を含む)が削
除されます。パーティション上のデータは破棄されません。クライアントに
再度アクセス権を付与するには、ターゲットLUNを別のまたは新規のターゲッ
トグループに割り当てて、それらに対するクライアントアクセスを設定しま
す。
1 rootユーザとしてiSCSI LIOターゲットサーバにログインして、端末コン
ソールを起動します。
2 /etc/init.d/targetデーモンが実行中であることを確認します。コマ
ンドプロンプトで、次のように入力します
/etc/init.d/target start
コマンドから、デーモンが起動した、またはデーモンがすでに実行中であ
ることを確認するメッセージが返されます。
3 YaSTを、rootユーザとして起動します。
4 YaSTコントロールセンターで、[ネットワークサービス]を選択して、次
に[iSCSI LIOターゲット]を選択します。
「lio」を検索してから、[iSCSI LIOターゲット]を選択することもできま
す。
5 [iSCSI LIOターゲット概要]ダイアログボックスで、[ターゲット]タブを
選択して、設定済みターゲットグループの一覧を表示します。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
321
6 削除するiSCSI LIOターゲットグループを選択して、[削除]をクリックし
ます。
7 確認のメッセージが表示されたら、[続行]をクリックして削除を確認す
るか、[キャンセル]をクリックしてキャンセルします。
322
ストレージ管理ガイド
8 [完了]をクリックして、設定を保存して適用します。
15.8 iSCSI LIOターゲットサーバのトラ
ブルシューティング
この項では、iSCSI LIOターゲットサーバに関するいくつかの既知の問題と、
考えられる解決策について説明します。
• 15.8.1項 「ターゲットLUNのセットアップ時のポータルエラー 」
(323 ページ)
• 15.8.2項 「iSCSI LIOターゲットが他のコンピュータで表示されない」
(324 ページ)
15.8.1 ターゲットLUNのセットアップ時の
ポータルエラー
iSCSI LIOターゲットグループの追加または編集を行う際に、次のエラーが発
生する:
Problem setting network portal <ip_address>:3260
/var/log/YasT2/y2logログファイルに、次のエラーが含まれている:
find: `/sys/kernel/config/target/iscsi': No such file or directory
この問題は、iSCSI LIOターゲットサーバソフトウェアがその時点で実行中で
はない場合に発生します。この問題を解決するには、YaSTを終了して、コマ
ンドラインでマニュアルでiSCSI LIOを起動し、再試行します。
1 rootユーザとして、端末コンソールを開きます。
2 コマンドプロンプトで、次のように入力します
/etc/init.d/target start
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
323
次のように入力して、configfs、iscsi_target_mod、および
target_core_modがロードされているかどうかチェックすることもできま
す。サンプルの応答を示しています。
lsmod | grep iscsi
iscsi_target_mod
295015 0
target_core_mod
346745 4
iscsi_target_mod,target_core_pscsi,target_core_iblock,target_core_file
configfs
35817 3 iscsi_target_mod,target_core_mod
scsi_mod
231620 16
iscsi_target_mod,target_core_pscsi,target_core_mod,sg,sr_mod,mptctl,sd_mod,
scsi_dh_rdac,scsi_dh_emc,scsi_dh_alua,scsi_dh_hp_sw,scsi_dh,libata,mptspi,
mptscsih,scsi_transport_spi
15.8.2 iSCSI LIOターゲットが他のコンピュー
タで表示されない
ターゲットサーバでファイアウォールを使用している場合は、他のコンピュー
タでiSCSI LIOターゲットを表示できるようにするために使用するiSCSIポート
を開く必要があります。詳細については、15.2.1項 「iSCSI LIO起動の初期設
定」 (294 ページ)のステップ 7 (295 ページ)を参照してください。
15.9 iSCSI LIOターゲットの用語
backstore
iSCSIのエンドポイントの基礎となる実際のストレージを提供する、物理
的ストレージオブジェクト。
CDB (command descriptor block)
SCSIコマンドの標準フォーマット CDBは一般的に6、10、または12バイト
の長さですが、16バイトまたは可変長でも構いません。
CHAP (Challenge Handshake Authentication Protocol)
ポイントツーポイントプロトコル(PPP)の認証方法で、あるコンピュータ
のアイデンティティを別のコンピュータに対して確認するために使用しま
す。Link Control Protocol (LCP)によって2台のコンピュータが接続され、
CHAPメソッドがネゴシエートされた後、認証者はランダムなチャレンジ
324
ストレージ管理ガイド
をピアに送信します。ピアは、チャレンジおよび秘密鍵に依存した、暗号
学的にハッシュされたレスポンスを発行します。認証者は、ハッシュされ
たレスポンスを、予想されるハッシュ値の自身の計算に対して検証し、認
証を了承するか、接続を終了します。CHAPは、Internet Engineering Task
Force (IETF) [http://www.ietf.org] RFC 1994で定義されました。
CID (接続識別子)
イニシエータが生成する16ビットの番号で、2つのiSCSIデバイス間の接続
を、一意に識別するもの。この番号は、ログインフェーズの間に提示され
ます。
エンドポイント
iSCSIターゲット名とiSCSI TPG (IQN + Tag)の組み合わせ
EUI (extended unique identifier)
世界中のあらゆるデバイスを一意に識別する、64ビットの番号。フォー
マットは、会社ごとに一意である24ビットと、その会社が自社の各デバイ
スに割り当てる40ビットで構成されます。
イニシエータ
SCSIセッションの開始エンド。通常は、コンピュータなどの制御デバイ
ス。
IPS (Internet Protocol storage)
IPプロトコルを使用してストレージネットワーク内のデータを移動する、
プロトコルまたはデバイスのクラス。FCIP (Fibre Channel over Internet
Protocol)、iFCP (Internet Fibre Channel Protocol)、およびiSCSI (Internet SCSI)
は、すべてIPSプロトコルの例です。
IQN (iSCSI qualified name)
世界中のあらゆるデバイスを一意に識別する、iSCSIの名前形式(たとえば:
iqn.5886.com.acme.tapedrive.sn‐a12345678)。
ISID (initiator session identifier)
イニシエータが生成する48ビットの番号で、イニシエータとターゲット間
のセッションを一意に識別するもの。この値はログインプロセスの間に作
成され、ログインPDUとともにターゲットに送られます。
MCS (multiple connections per session)
iSCSI仕様の一部で、イニシエータとターゲット間での複数のTCP/IP接続
を可能にするもの。
IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ
325
MPIO (multipath I/O)
サーバとストレージ間でデータが複数の冗長パスをとることができるメ
ソッド。
ネットワークポータル
iSCSIエンドポイントと、IPアドレスプラスTCP (Transmission Control
Protocol)ポートの組み合わせ。TCPポート3260が、iSCSIプロトコル用の
ポート番号です。これは、IANA (Internet Assigned Numbers Authority)によ
り定義されています。
SAM (SCSI architectural model)
SCSIの動作を一般的な表記で記載した文書で、異なる種類のデバイスが
さまざまなメディア上で通信することを可能にするもの。
ターゲット
SCSIセッションの受信側で、通常はディスクドライブ、テープドライブ、
スキャナなどのデバイス。
ターゲットグループ(TG)
ビューの作成時にすべて同じ扱いを受ける、SCSIターゲットポートのリ
スト。ビューを作成することで、LUN (論理ユニット番号)のマッピングが
容易になります。それぞれのビューエントリが、ターゲットグループ、ホ
ストグループ、およびLUNを指定します。
ターゲットポート
iSCSIエンドポイントと、1つ以上のLUNの組み合わせ。
ターゲットポートグループ(TPG)
IPアドレスとTCPポート番号のリストで、特定のiSCSIターゲットがどの
インタフェースから受信するかを決定するもの。
ターゲットセッション識別子(TSID)
ターゲットが生成する 16ビットの番号で、イニシエータとターゲット間
のセッションを一意に識別するもの。この値はログインプロセスの間に作
成され、ログインレスポンスPDU(プロトコルデータユニット)とともにイ
ニシエータに送られます。
326
ストレージ管理ガイド
Fibre Channel Storage over
Ethernet Networks: FCoE
16
多くの企業のデータセンターが、そのLANおよびデータトラフィックをEthernet
に依存し、またそのストレージインフラストラクチャをファイバチャネルに
依存しています。Open Fibre Channel over Ethernet (FCoE)イニシエータソフト
ウェアは、Ethernetアダプタが付いたサーバが、Ethernetネットワーク上でファ
イバチャネルストレージに接続できるようにします。このコネクティビティ
はこれまで、ファイバチャネルファブリック上にファイバチャネルアダプタ
を有するシステム用に、独占的に確保されていました。FCoEテクノロジは、
ネットワークコンバージェンスを支援することで、データセンター内の複雑
性を減らします。これにより、ファイバチャネルストレージへの既存の投資
を無駄にすることなく、ネットワーク管理を簡素化することができます。
Fibre Channel Storage over Ethernet Networks: FCoE
327
図 16.1 Open Fibre Channel over Ethernet SAN
328
ストレージ管理ガイド
Open-FCoEでは、ホストバスアダプタ上の専有のハードウェアではなく、ホ
ストでファイバチャネルのプロトコルを実行することができます。対象とし
ているのは10 Gbps (ギガバイト/秒)のEthernetアダプタですが、PAUSEフレー
ムに対応したすべてのEthernetアダプタで使用可能です。イニシエータソフト
ウェアにより、ファイバチャネルプロトコルの処理モジュールと、Ethernet
ベースのトランスポートモジュールが提供されます。Open-FCoEモジュール
は、SCSI用の低レベルドライバの役割を果たします。Open-FCoEトランスポー
トは、net_deviceを使用してパケットの送受信を行います。DCB(データセ
ンターブリッジング)ドライバにより、FCoE向けのサービスの質が提供されま
す。
FCoEは、ファイバチャネルフレームを変えずに、ファイバチャネルのプロト
コルトラフィックをEthernet接続上で動かす、カプセル化プロトコルです。こ
れにより、ネットワークセキュリティとトラフィック管理インフラストラク
チャが、ファイバチャネルにおけるのと同じようにFCoEでも機能することが
できます。
以下の条件が当てはまる企業では、Open-FCoEの導入を選択してもよいでしょ
う。
• すでにファイバチャネルストレージシステムがあり、ファイバチャネルの
スキルと知識を持つ管理者がいる。
• ネットワーク内に、10 GbpsのEthernetを展開している。
この項では、ネットワークにFCoEを設定する方法を説明します。
• 16.1項 「FCoEおよびYaSTのFCoEクライアントのインストール」
(330 ページ)
• 16.2項 「インストール時におけるFCoEインタフェースの設定」 (331 ページ)
• 16.3項 「YaSTを使用したFCoEサービスの管理」 (332 ページ)
• 16.4項 「コマンドを使用したFCoEの設定」 (338 ページ)
• 16.5項 「FCoE管理ツールを使用したFCoEインスタンスの管理」 (339 ページ)
• 16.6項 「FCoEイニシエータディスク用のパーティションの設定」
(344 ページ)
Fibre Channel Storage over Ethernet Networks: FCoE
329
• 16.7項 「FCoEイニシエータディスクでのファイルシステムの作成」
(345 ページ)
• 16.8項 「追加情報」
(346 ページ)
16.1 FCoEおよびYaSTのFCoEクライア
ントのインストール
サーバへの接続用のスイッチでFCoEを有効にすることで、ストレージインフ
ラストラクチャ内にFCoEディスクを設定することができます。SUSE Linux
Enterprise Serverオペレーティングシステムのインストール時にFCoEディスク
が利用可能であれば、FCoEイニシエータソフトウェアが、その時点で自動的
にインストールされます。
FCoEイニシエータソフトウェアとYaST FCoEクライアントソフトウェアがイ
ンストールされていない場合は、次のプロシージャを使用して、既存のシス
テムにマニュアルでインストールします。
1 サーバにrootユーザとしてログインします。
2 YaSTで、[ソフトウェア][ソフトウェア管理]を選択します。
3 次のFCoEパッケージを検索して選択します。
• open-fcoe
• yast2-fcoe-client
たとえば、[検索]フィールドにfcoeを入力して、[検索]をクリックし
てソフトウェアパッケージを見つけてから、インストールしたい各ソフト
ウェアパッケージの横にあるチェックボックスをオンにします。
330
ストレージ管理ガイド
4 [承諾]をクリックし、次に[続行]をクリックして自動変更を承諾しま
す。
16.2 インストール時におけるFCoEイン
タフェースの設定
SUSE Linux Enterprise Server向けのYaSTのインストールでは、サーバとファイ
バチャネルストレージインフラストラクチャ間の接続用のスイッチでFCoEが
有効になっていれば、オペレーティングシステムのインストール時にFCoE
ディスクの設定を行うことができます。一部のシステムBIOSタイプでは、
FCoEディスクを自動的に検出することができ、そのディスクをYaSTのインス
トールソフトウェアに報告します。ただし、FCoEディスクの自動検出は、す
べてのBIOSのタイプでサポートされているわけではありません。その場合、
インストールの開始時に次のwithfcoeオプションをカーネルのコマンドラ
インに追加することで、自動検出を有効にすることができます。
withfcoe=1
FCoEディスクが検出されると、YaSTのインストールでは、同時にFCoEを設
定するオプションがあります。[ディスクアクティベーション]ページで、
Fibre Channel Storage over Ethernet Networks: FCoE
331
[FCoEインタフェースの設定]を選択して、FCoEの設定にアクセスします。
FCoEインタフェースの設定については、16.3項 「YaSTを使用したFCoEサー
ビスの管理」 (332 ページ)を参照してください。
16.3 YaSTを使用したFCoEサービスの
管理
YaST FCoEクライアント設定オプションを使用して、お使いのファイバチャ
ネルストレージインフラストラクチャ内のFCoEディスク用のFCoEインタフェー
スの作成、設定、および削除ができます。このオプションを使用するには、
FCoEイニシエータサービス(fcoemonデーモン)およびLink Layer Discovery
Protocolエージェントデーモン(lldpad)がインストールされて実行中であり、
FCoE接続が、FCoE対応のスイッチで有効になっている必要があります。
1 rootユーザとしてログインし、YaSTを起動します。
2 YaSTで、[ネットワークサービス][FCoEクライアントの設定]と選択
します。
332
ストレージ管理ガイド
[Fibre Channel over Ethernet Configuration]ダイアログボックスには、次の3つ
のタブがあります。
• [サービス]
• [インタフェース]
• [環境設定]
3 [サービス]タブで、FCoEサービスとLldpad (Link Layer Discovery Protocol
エージェントデーモン)サービスの開始時刻を確認し、必要に応じて変更し
ます。
• FCoEサービスの開始: Fibre Channel over Ethernetサービスのfcoemonデー
モンを、サーバの起動時に開始するか、マニュアルで開始するかを指定
します。このデーモンは、FCoEインタフェースを制御して、lldpadデー
モンとの接続を確立します。値は、[起動時](デフォルト)または[マ
ニュアル]です。
• Lldpadサービスの開始: Link Layer Discovery Protocolエージェントlldpad
デーモンを、サーバの起動時に開始するか、マニュアルで開始するかを
指定します。lldpadデーモンは、データセンターブリッジング機能およ
Fibre Channel Storage over Ethernet Networks: FCoE
333
びFCoEインタフェースの設定について、fcoemonデーモンに情報を送り
ます。値は、[起動時](デフォルト)または[マニュアル]です。
設定を変更した場合は、[OK]をクリックして変更内容を保存して適用し
ます。
4 [インタフェース]タブで、サーバ上で検出されたすべてのネットワーク
アダプタに関する情報(VLANおよびFCoEの設定に関する情報を含む)を確
認します。また、FCoE VLANインタフェースの作成や既存のFCoEインタ
フェース設定の変更、FCoEインタフェースの削除もできます。
FCoE情報の参照
[FCoEインタフェース]テーブルには、各アダプタに関する次の情報が表
示されます。
• デバイス名: eth4などのアダプタ名を示します。
• モデル: アダプタのモデル情報を示します。
• FCoE VLANインタフェース
• インタフェース名: インタフェースに名前が割り当てられている
(eth4.200など)場合は、スイッチでFCoEが利用可能であり、FCoE
インタフェースがアダプタに対してアクティブになっています。
334
ストレージ管理ガイド
• 未設定: 状態が[未設定]である場合は、スイッチでFCoEが有効
になっていますが、FCoEインタフェースはアダプタに対してアク
ティブになっていません。アダプタでインタフェースを有効にす
るには、アダプタを選択して、[FCoE VLANインタフェースを作
成]をクリックします。
• 使用不可: 状態が[使用不可]である場合は、FCoEがスイッチ上
のその接続に対して有効になっていないため、そのアダプタでは
FCoEは使えません。
• FCoEの有効化: アダプタ接続に対して、スイッチでFCoEを有効にするか
どうかを指定します。([はい]または[いいえ])
• DCBが必要: アダプタでデータセンターブリッジングが必要かどうかを
指定します。([はい]または[いいえ])
• Auto VLAN: アダプタでVLAN設定を有効にするかどうかを指定します。
([はい]または[いいえ])
• DCB対応: アダプタがデータセンターブリッジングをサポートするかど
うかを指定します。([はい]または[いいえ])
FCoE設定を変更
FCoE VLANインタフェースを選択して、ページの下部にある[設定を変
更]をクリックして、[FCoE設定を変更]ダイアログボックスを開きます。
Fibre Channel Storage over Ethernet Networks: FCoE
335
• FCoEの有効化: アダプタに対してFCoEインスタンスの作成を有効または
無効にします。値は、[はい]または[いいえ]です。
• DCBが必要: データセンターブリッジングがアダプタに必要かどうかを
指定します。値は、[はい](デフォルト)または[いいえ]です。DCB
は通常、必要です。
• Auto VLAN: fcoemonデーモンでVLANインタフェースを作成するかど
うかを指定します。値は、[はい]または[いいえ]です。
設定を変更した場合は、[次へ]をクリックして変更内容を保存して適用
します。設定は、/etc/fcoe/ethXファイルに書き込まれます。fcoemon
デーモンにより、同デーモンが初期化された時に、各FCoEインタフェース
に対して環境設定ファイルが読み込まれます。すべてのFCoEインタフェー
スに対してファイルがあります。
FCoE VLANインタフェースを作成
FCoEが有効になっていてもまだ構成されていないアダプタを選択して、
[はい]をクリックして、FCoEインタフェースを構成します。割り当てら
れたインタフェース名(eth5.200など)が一覧に表示されます。
FCoEインタフェースを削除
削除したいFCoEインタフェースを選択して、ページの下部にある[インタ
フェースを削除]をクリックし、[続行]をクリックして確定します。
FCoEインタフェースの値が、[未構成]に変わります。
336
ストレージ管理ガイド
5 [設定]タブで、FCoEシステムサービスの全般設定を確認または変更しま
す。
• デバッグ: FCoEのサービススクリプトおよびfcoemonデーモンからの、
デバッグのメッセージを有効または無効にします。値は、[はい]また
は[]いいえ](デフォルト)です。
• syslogを使用: メッセージをシステムログ(/var/log/syslog)に送信す
るかどうかを指定します。値は、[はい](デフォルト)または[いいえ]
です。(データは、/var/log/messagesにログされます。)
Fibre Channel Storage over Ethernet Networks: FCoE
337
設定を変更した場合は、[OK]をクリックして変更内容を保存して適用し
ます。設定は、/etc/fcoe/configファイルに書き込まれます。
6 [OK]をクリックして、変更内容を保存して適用します。
16.4 コマンドを使用したFCoEの設定
1 rootユーザとしてサーバにログインして、端末コンソールを起動します。
2 YaSTを使用して、Ethernetネットワークインタフェースカード(eth2など)
を設定します。
3 Link Layer Discovery Protocolエージェントデーモン(lldpad)を起動します。
rclldpad start
4 お使いのEthernetアダプタ上で、データセンターブリッジングを有効にしま
す。
dcbtool sc eth2 dcb on
Version:
2
Command:
Set Config
Feature:
DCB State
Port:
eth2
Status:
Successful
5 Priority Flow Control (PFC)設定を、データセンターブリッジングに対して有
効にします。
dcbtool sc eth<x> pfc e:1 a:1 w:1
引数の設定値は次のとおりです。
e:<0|1>
機能の有効化を制御します。
a:<0|1>
機能を、データセンターブリッジング交換プロトコルを介してピアに
アドバタイズするかどうかを制御します。
338
ストレージ管理ガイド
w:<0|1>
機能が、ピアから受け取った内容に基づいてその運用設定を積極的に
変更するかどうかを制御します。
6 データセンターブリッジングを有効にして、FCoEに対するスイッチの優先
度設定を受け入れます。
dcbtool sc eth2 app:fcoe e:1
Version:
2
Command:
Set Config
Feature:
Application FCoE
Port:
eth2
Status:
Successful
7 デフォルトのFCoE環境設定ファイルを、/etc/fcoe/cfg-eth2にコピー
します。
cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-eth2
8 FCoEイニシエータサービスを開始します。
rcfcoe start
Starting FCoE initiator service
9 Link Layer Discovery Protocolエージェントデーモン(lldpad)およびFCoEイ
ニシエータサービスを、起動時に開始するよう設定します。
chkconfig boot.lldpad on
chkconfig boot.fcoe on
16.5 FCoE管理ツールを使用したFCoE
インスタンスの管理
fcoeadmユーティリティは、Open-FCoEプロジェクト用の、Fibre Channel over
Ethernet (FCoE)管理ツールです。これを使用して、所定のネットワークインタ
フェースのFCoEインスタンスの作成、破棄、およびリセットを行うことがで
Fibre Channel Storage over Ethernet Networks: FCoE
339
きます。fcoeadmユーティリティは、ソケットインタフェースを通じて、実
行中のfcoemonプロセスにコマンドを送ります。fcoemonの詳細について
は、fcoemon(8)マニュアルページを参照してください。
fcoeadmユーティリティを使用して、以下に関してFCoEインスタンスにクエ
リを行うことができます。
• インタフェース
• ターゲットLUN
• ポートの統計データ
fcoeadmユーティリティは、fcoe-utilsパッケージの一部です。Open-FCoE
プロジェクト [http://open-fcoe.org/]により保守管理されています。
構文
Fiber Channel over Ethernet Administrationバージョン1.0.12.
fcoeadm
[-c|--create] [<ethX>]
[-d|--destroy] [<ethX>]
[-r|--reset] [<ethX>]
[-S|--Scan] [<ethX>]
[-i|--interface] [<ethX>]
[-t|--target] [<ethX>]
[-l|--lun] [<ethX>]
[-s|--stats <ethX>] [<interval>]
[-v|--version]
[-h|--help]
オプション
-c , --create <ethX>
指定したネットワークインタフェースに基づいてFCoEインスタンスを
作成します。fcoemon設定ファイルがOpen-FCoEサービスデーモンイ
ンタフェース(/etc/fcoe/cfg-ethx、fcoemon(8)マニュアルペー
ジを参照)に対して存在しない場合、作成したFCoEインスタンスはデー
タセンターブリッジングを必要としません。
例: FCoEインスタンスをeth2.101上に作成する:
fcoeadm -c eth2.101
340
ストレージ管理ガイド
-d , --destroy <ethX>
指定したネットワークインタフェース上のFCoEインスタンスを破棄し
ます。これによって、fipvlanで作成されたFCoEインスタンスが破
棄されることはありません。
例: FCoEインスタンス上のeth2.101を破棄する:
fcoeadm -d eth2.101
-h , --help
fcoeadmコマンドの使用に関するメッセージを表示します。
-i , --interface [<ethX>]
指定したネットワークインタフェース上のFCoEインスタンスに関する
情報を表示します。ネットワークインタフェースを指定しない場合
は、すべてのFCoEインスタンスに関する情報を表示します。
例
FCoEインスタンスが作成されているアダプタとそのポートのすべてに
関する情報を表示する:
fcoeadm -i
インタフェースeth3上のFCoEインスタンスすべてに関する情報を表
示する:
fcoeadm -i eth3
-l , --lun [<ethX>]
指定したネットワークインタフェース上のFCoEインスタンスに関連付
けられた、検出されたSCSI LUNに関する詳細情報を表示します。ネッ
トワークインタフェースを指定しない場合は、すべてのFCoEインスタ
ンスからのSCSI LUNに関する情報を表示します。
例
すべてのFCoE接続上で検出されたLUNのすべてに関する詳細情報を
表示する:
Fibre Channel Storage over Ethernet Networks: FCoE
341
fcoeadm -l
eth3.101など、特定の接続上で検出されたLUNのすべてに関する情
報を表示する:
fcoeadm -l eth3.101
-r , --reset <ethX>
指定したネットワークインタフェース上のFCoEインスタンスをリセッ
トします。これによって、fipvlanで作成されたFCoEインスタンス
がリセットされることはありません。
例: eth2.101上のFCoEインスタンスをリセットする:
fcoeadm -r eth2.101
-s , --stats <ethX> [interval]
指定したネットワークインタフェース上のFCoEインスタンスの統計情
報(FC4統計情報を含む)を表示します。一定の時間間隔で1行ずつ表示
します。間隔の値を、0より大きい整数で指定します。間隔の値は、
秒単位での間隔の経過時間です。間隔を指定しない場合、デフォルト
の間隔は1秒です。
例:
FCoEインスタンスを持つ特定のeth3ポートに関する統計情報を表示
できます。統計情報は、時間間隔ごとに1行ずつ表示されます。この
コマンドでは、デフォルトの間隔である1秒は指定していません。
fcoeadm -s eth3
FCoEインスタンスを持つ特定のeth3ポートに関する統計情報を、3秒
間隔で表示する場合。統計情報は、時間間隔ごとに1行ずつ表示され
ます。
fcoeadm -s eth3 3
-S , --Scan <ethX>
指定したネットワークインタフェースに対する新規のターゲットと
LUNを再スキャンします。これによって、同じポート上で作成された
342
ストレージ管理ガイド
NPIV (N_Port ID Virtualization)インスタンスが再スキャンされることは
なく、また fipvlanにより作成されたFCoEインスタンスが再スキャ
ンされることもありません。
-t , --target [<ethX>]
指定したネットワークインタフェース上のFCoEインスタンスに関連付
けられた、検出されたターゲットに関する情報を表示します。ネット
ワークインタフェースを指定しない場合は、すべてのFCoEインスタン
スからの検出されたターゲットに関する情報を表示します。
例
FCoEインスタンスを持つポートのすべてからの、検出されたターゲッ
トのすべてに関する情報を表示できます。ターゲットは、異なるアダ
プタカード上のものであることもあります。検出された各ターゲット
の後ろに、関連付けられたLUNが列記されます。
fcoeadm -t
FCoEインスタンスを持つ所定のeth3ポートからの、検出されたター
ゲットのすべてに関する情報を表示できます。検出された各ターゲッ
トの後ろに、関連付けられたLUNが列記されます。
fcoeadm -t eth3
-v , --version
fcoeadmコマンドのバージョンを表示します。
FCoEの応答例
FC-IDノード/ポート番号に対するFCoEイニシエータの状態を表示
fcoeadm -i eth0.201
Description:
Revision:
Manufacturer:
Serial Number:
Driver:
Number of Ports:
82599EB 10-Gigabit SFI/SFP+ Network Connection
01
Intel Corporation
001B219B258C
ixgbe 3.3.8-k2
1
Symbolic Name:
OS Device Name:
Node Name:
fcoe v0.1 over eth0.201
host8
0x1000001B219B258E
Fibre Channel Storage over Ethernet Networks: FCoE
343
Port Name:
FabricName:
Speed:
Supported Speed:
MaxFrameSize:
FC-ID (Port ID):
State:
0x2000001B219B258E
0x2001000573D38141
10 Gbit
10 Gbit
2112
0x790003
Online
FC-IDノード/ポート番号に対するFCoEターゲットを表示
fcoeadm -t eth0.201
Interface:
Roles:
Node Name:
Port Name:
Target ID:
MaxFrameSize:
OS Device Name:
FC-ID (Port ID):
State:
eth0.201
FCP Target
0x200000D0231B5C72
0x210000D0231B5C72
0
2048
rport-8:0-7
0x79000C
Online
LUN ID Device Name
Capacity
------ ----------- ------------------------------------40 /dev/sdqi
792.84 GB
386C)
72 /dev/sdpk
650.00 GB
386C)
168 /dev/sdgy
1.30 TB
386C)
Block Size
----------
Description
512
IFT DS S24F-R2840-4 (rev
512
IFT DS S24F-R2840-4 (rev
512
IFT DS S24F-R2840-4 (rev
16.6 FCoEイニシエータディスク用の
パーティションの設定
fdisk(8)コマンドを使用して、FCoEイニシエータディスク用のパーティショ
ンを設定できます。
fdisk /dev/sdc
Device contains neither a valid DOS partition table, nor Sun, SGI or OSF
disklabel.
Building a new DOS disklabel with disk identifier 0xfc691889.
Changes will remain in memory only, until you decide to write them.
After that, of course, the previous content won’t be recoverable.
Warning: Invalid flag 0x0000 of partition table 4 will be corrected by
w(rite)
344
ストレージ管理ガイド
Command
Command
e
p
(n for help): n
action
extended
primary partition (1-4)
p
Partition number (1-4): 4
First cylinder (1-1017, default 1):
Using default value 1
Last cylinder, *cylinders or *size(K,M,G) (1-1017, default 1017):
Using default value 1017
Command (n for help): w
The partition table has been altered!
Calling loctl() to re-read partition table.
Syncing disks.
16.7 FCoEイニシエータディスクでの
ファイルシステムの作成
mkfs(8)コマンドを使用して、FCoEイニシエータディスクにファイルシステ
ムを作成できます。
mkfs /dev/sdc
mke2fs 1.41.9 (22-Aug-2011)
/dev/sdc is entire device, not just one partition!
Proceed anyway? (y, n) y
Filesystem label=
OS type: Linux
Block size=4096 (log-2)
262144 inodes, 1048576 blocks
52428 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=1073741824
32 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 804736
Writing inode tables: done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 27 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
Fibre Channel Storage over Ethernet Networks: FCoE
345
16.8 追加情報
詳細については、以下のマニュアルを参照してください。
• Open-FCoEのサービスデーモンについては、fcoemon(8)マニュアルページ
を参照してください。
• Open-FCoEの管理ツールについては、fcoeadm(8)マニュアルページを参照
してください。
• データセンターブリッジング設定ツールについては、dcbtool(8)マニュ
アルページを参照してください。
• Link Layer Discovery Protocolエージェントデーモンについては、lldpad(8)
マニュアルページを参照してください。
• Open Fibre Channel over Ethernet Quick Start [http://www.open-fcoe.org/
open-fcoe/wiki/quickstart]。
346
ストレージ管理ガイド
ボリュームのスナップショット
17
ファイルシステムのスナップショットはコピーオンライント技術の1つで、既
存のボリュームのデータブロックに対する変更を監視し、いずれかのブロッ
クに書き込みが行われると、スナップショット時のブロックの値がスナップ
ショットボリュームにコピーされます。こうすることで、スナップショット
ボリュームが削除されるまで、データのその時点のコピーが保存されます。
• 17.1項 「ボリュームスナップショットの理解」
(347 ページ)
• 17.2項 「LVMによるLinuxスナップショットの作成」 (349 ページ)
• 17.3項 「スナップショットの監視」
(349 ページ)
• 17.4項 「Linuxスナップショットの削除」
(350 ページ)
17.1 ボリュームスナップショットの理
解
ファイルシステムのスナップショットには、元のボリュームに関するメタデー
タと、スナップショットの作成後に変更された元のボリュームからのデータ
ブロックが含まれています。スナップショットを介してデータにアクセスす
ると、元のボリュームの瞬間的なコピーが表示されます。バックアップ媒体
からデータを復元したり、変更されたデータを上書きする必要はありません。
ボリュームのスナップショット
347
Xenホスト環境では、仮想マシンは、仮想ディスクファイルの使用ではなく
に、ストレージバックエンドとして、LVM論理ボリュームを使用する必要が
あります。
Linuxのスナップショットでは、ファイルシステムのその時点のビューから
バックアップを作成できます。スナップショットは瞬時に作成され、削除す
るまで保存されます。ボリューム自体はユーザが引き続き利用できるように
しながら、スナップショットからファイルシステムのバックアップを作成で
きます。当初のスナップショットには、スナップショットに関するメタデー
タが含まれていますが、オリジナルボリュームの実際のデータは含まれてい
ません。スナップショットはコピーオンライト技術を使用して、オリジナル
データブロックのデータ変更を検出します。スナップショットボリューム内
のブロックにスナップショットをとった際に保存されている値をコピーし、
オリジナルブロックに新しいデータを保存することができます。オリジナル
の値からブロックが変化すると、スナップショットのサイズが拡大します。
スナップショットのサイズを決定する際には、オリジナルボリュームに対し
て予想されるデータ変更量、およびスナップショットの保存期間を考慮する
必要があります。スナップショットボリュームに割り当てるスペースの量は、
元のボリュームのサイズ、スナップショットの保持予定期間、およびスナッ
プショットのライフタイム中に変更が予期されるデータブロックの数によっ
て異なります。スナップショットボリュームは、作成後のサイズ変更はでき
ません。目安として、元の論理ボリュームの約10%のサイズで、スナップ
ショットボリュームを作成してください。スナップショットの削除前に、元
のボリューム内のすべてのブロックが1回以上変更されると予期される場合
は、スナップボリュームのサイズを、少なくとも元のボリュームサイズにそ
のボリュームに関するメタデータ用スペースを加えたサイズにする必要があ
ります。データ変更が頻繁でないか、またはライフタイムが十分短いと予期
される場合、必要なスペースは少なくなります。
重要
スナップショットのライフタイム中は、スナップショットを先にマウント
しないと、元のボリュームをマウントできません。
スナップショットが不要になったら、必ず、システムからスナップショット
を削除してください。スナップショットは、元のボリュームでデータブロッ
クが変更されるにつれ、最終的に、満杯になります。スナップショットはいっ
ぱいになると、使用不可になるので、元のボリュームの再マウントができな
くなります。
348
ストレージ管理ガイド
スナップショットは、最後に作成されたものから順に削除してください。
17.2 LVMによるLinuxスナップショッ
トの作成
LVM (Logical Volume Manager)は、ファイルシステムのスナップショットの作
成に使用できます。
• 端末コンソールを開いて、rootユーザとしてログインし、次のように入力
します。
lvcreate -s -L 1G -n snap_volume source_volume_path
次に例を示します。
lvcreate -s -L 1G -n linux01-snap /dev/lvm/linux01
スナップショットが/dev/lvm/linux01-snapボリュームとして作成され
ます。
17.3 スナップショットの監視
• 端末コンソールを開いて、rootユーザとしてログインし、次のように入力
します。
lvdisplay snap_volume
次に例を示します。
lvdisplay /dev/vg01/linux01-snap
--- Logical volume --LV Name
VG Name
LV UUID
LV Write Access
LV snapshot status
LV Status
/dev/lvm/linux01
vg01
QHVJYh-PR3s-A4SG-s4Aa-MyWN-Ra7a-HL47KL
read/write
active destination for /dev/lvm/linux01
available
ボリュームのスナップショット
349
# open
LV Size
Current LE
COW-table size
COW-table LE
Allocated to snapshot
Snapshot chunk size
Segments
Allocation
Read ahead sectors
Block device
0
80.00 GB
1024
8.00 GB
512
30%
8.00 KB
1
inherit
0
254:5
17.4 Linuxスナップショットの削除
• 端末コンソールを開いて、rootユーザとしてログインし、次のように入力
します。
lvremove snap_volume_path
次に例を示します。
lvremove /dev/lvm/linux01-snap
350
ストレージ管理ガイド
NFSv4上でのアクセス制御リス
トの管理
18
Linuxには、簡単なuser/group/otherの読み込み、書き込み、および実行(rwx)の
各フラグ以上のACL (アクセス制御リスト)の標準は1つもありません。よりき
め細かな制御のオプションの1つにDraft POSIX ACLがあります。ただし、これ
らのACLは、POSIXによって正式に標準化されたことはありません。もう1つ
は、NFSv4ネットワークファイルシステムの一部として設計されたNFSv4 ACL
です。NFSv4 ACLは、Linux上のPOSIXシステムとMicrosoft Windows上のWIN32
システム間に適切な互換性を提供することを目的としています。
NFSv4 ACLは、Draft POSIX ACLを正しく実装できるほど十分ではないので、
NFSv4クライアントへのACLアクセスのマッピングは試みられていません
(setfaclの使用など)。
NFSv4の使用時は、Draft POSIX ACLはエミュレーションでさえ使用できず、
NFSv4 ACLを直接使用する必要があります。つまり、setfaclをNFSv3で動
作させながら、NFSv4で動作させることはできません。NFSv4 ACLをNFSv4
ファイルシステムで使用できるようにするため、SUSE Linux Enterprise Server
では、次のファイルを含むnfs4-acl-toolsパッケージを提供しています。
• nfs4-getfacl
• nfs4-setfacl
• nfs4-editacl
これらのファイルは、NFSv4 ACLのチェックと変更についてgetfaclおよび
setfaclと大体同様に動作します。これらのコマンドは、NFSサーバ上のファ
NFSv4上でのアクセス制御リストの管理
351
イルシステムがNFSv4 ACLのフルサポートを提供する場合のみ有効です。サー
バによって課される制限は、クライアントで実行されているこれらのプログ
ラムに影響を与え、ACE (Access Control Entries)の一部の特定の組み合わせが
不可能なことがあります。
追加情報
詳細については、Linux-nfs.org Webサイトの「Introduction to NFSv4 ACLs」
[http://wiki.linux-nfs.org/wiki/index.php/ACLs#Introduction
_to_NFSv4_ACLs]を参照してください。
352
ストレージ管理ガイド
ストレージに関する問題のトラ
ブルシュート
19
このセクションでは、デバイス、ソフトウェア、RAID、マルチパス I/O、お
よびボリュームの既知の問題に対処する方法について説明します。
• 19.1項 「DM-MPIOはブートパーティションに使用できますか?」
(353 ページ)
• 19.2項 「iSCSIの問題」
(353 ページ)
• 19.3項 「マルチパスI/Oの問題」
(354 ページ)
• 19.4項 「ソフトウェアRAIDの問題」
(354 ページ)
19.1 DM-MPIOはブートパーティショ
ンに使用できますか?
DM-MPIO (Device Mapper Multipath I/O)は、SUSE Linux Enterprise Server 10
Support Pack 1から、ブートパーティション用にサポートされています。
19.2 iSCSIの問題
第19章 ストレージに関する問題のトラブルシュート (353 ページ)を参照してく
ださい。
ストレージに関する問題のトラブルシュート
353
19.3 マルチパスI/Oの問題
7.19項 「MPIOのトラブルシューティング」 (174 ページ)を参照してください。
19.4 ソフトウェアRAIDの問題
8.3項 「トラブルシューティングソフトウェアRAID」 (182 ページ)を参照して
ください。
354
ストレージ管理ガイド
A
GNU利用許諾契約書
この付録には、GNU一般公衆利用許諾契約書バージョン2とGNUフリー文書
利用許諾契約書バージョン1.2が含まれています。
• A.1項 「GNU一般公開使用許諾」
(355 ページ)
• A.2項 「GNUフリー文書利用許諾契約書(GFDL)」
(359 ページ)
GNU一般公開使用許諾
第2版、1991年6月
Copyright (C) 1989, 1991 Free Software Foundation, Inc. 59 Temple Place - Suite 330, Boston, MA 02111-1307, USA
この使用許諾書を一字一句そのままの複製および頒布することは許可されますが、変更は許可されません。
前文
ほとんどのソフトウェアの使用許諾は、共有や変更が自由にできないようになっています。対照的に、GNU一般公衆利用許諾契約書
(GPL)は、フリー\'83\'5cフトウェアの共有や変更の自由を保証するように、つまり、フリー\'83\'5cフトウェアがそのすべてのユーザに対
してフリーであることを保証するように考えられています。このGPLは、フリーソフトウェア財団の大半のソフトウェア、および作者
がGPLを行使することにした他のプログラムに適用されます。(フリーソフトウェア財団の他の一部のソフトウェアは、かわりにGNU劣
等一般公衆利用許諾契約書(LGPL)の適用を受けています)。また、LGPLをユーザのプログラムに適用することができます。
フリーソフトウェアというのは、無償であるということではなく、自由であるということを指します。一般公開使用許諾は、利用者が
フリー\'83\'5cフトウェアの複製物を間違いなく自由に頒布できるように考えられています(しかも、利用者が、希望に応じてこのような
サービスの対価も自由に設定できるようになっています)。また、必要に応じた\'83\'5cースコードの受領または入手、フリー\'83\'5cフト
ウェアの変更、あるいは新たなフリープログラムでのその部分的な流用が確実に行えるようになっています。さらに、利用者はこうし
た作業を実行できることが確実にわかるようになっています。
利用者の権利を保護するには、利用者にこうした権利を与えないようにすることや、利用者に権利の放棄を求めることを禁止するよう
に制限を加える必要があります。このような制限のため、フリーソフトウェアの複製物を頒布する場合やソフトウェアを改変する場合
には一定の責任が生じます。
たとえば、フリープログラムの複製物を頒布する場合は、無料または有料にかかわらず、自分のすべての権利を受領者に与える必要が
あります。また、受領者が確実にソースコードを受領するか、または入手できるようにする必要もあります。さらに、受領者に自分の
権利を把握させるために、次の条項を受領者に示す必要があります。
利用者の権利の保護は、2つの手順で行われます。(1)ソフトウェアを著作権で保護します。次に、(2)利用者にソフトウェアの複製、頒
布、改変を行うための法的な許可を与える本使用許諾を提供します。
また、作者やソフトウェアの保護のために、このフリーソフトウェアには保証がないことを皆に確実に理解させたいと考えています。
ソフトウェアが第三者によって改変されたり頒布されても、その受領者はオリジナル版を入手したわけではないため、第三者にもたら
された問題によってオリジナルの作者の評判が損なわれるものではないことも受領者に理解させる必要があります。
最後に、フリープログラムは、絶えずソフトウェア特許の脅威を受けています。そこで、フリープログラムの再頒布元が特許使用許諾
を個々に取得してプログラムを事実上独占するという危険を回避したいと考えています。このようなことを防ぐために、特許を誰でも
自由に利用できるように利用許諾を与える必要があるか、まったく利用許諾を与える必要がないかを明確にしました。
複製、頒布、改変の正確な条項は、この後に示します。
GNU一般公衆利用許諾契約書(GPL)の複製、頒布、改変に関する条項
0. 本利用許諾契約書は、この一般公衆利用許諾契約書(GPL)の条項に従って頒布できることを定めた著作権者の通告が記載されている
プログラムまたは他の著作物に適用されます。以下、「プログラム」とは、そのようなプログラムまたは著作物を指し、「プログラム
に基づく著作物」 とは、プログラム自体か、または著作権が適用される任意の派生的著作物のいずれかを指します。つまり、逐語的
か、または変更を含む、および/または別の言語に翻訳したプログラムまたはその一部を含む著作物を指します。(以下、翻訳は「改変」
という用語に含まれます)。「」各被許諾者のことを「利用者」と呼びます。「」
複製、頒布、改変以外の活動は、本使用許諾では適用されません。これらは対象外です。プログラムを実行する行為は制限されませ
ん。また、プログラムからの出力は、その内容が(プログラムの実行によって作成されたこととは無関係に)プログラムに基づく著作物
を構成する場合にのみ適用されます。それが本当かどうかは、プログラムの実行内容によって異なります。
1. 利用者は、受領したプログラムのソースコードを任意のメディアでそのまま複製または頒布することができます。その際には、各複
製物に適切な著作権表示と保証の放棄を適宜明記し、本利用許諾契約書および一切の保証の否定に関する通告すべてを維持したまま、
プログラムの他の受領者に本利用許諾契約書の複製物をプログラムとともに頒布することを条件とします。
利用者は、複製物の移送に関する実際的な行為を有償にすることができます。また、自己裁量により有償の代わりに保証を提供しても
かまいません。
2. 利用者は、プログラムの複製物またはその一部を改変することができます。したがって、プログラムに基づいた著作物を形成し、第
1項の条項に従ってそのような改変を複製または頒布することができます。ただし、次のすべての条件を満たしていることも前提とし
ます。
a) 利用者は、ファイルを改変したことおよび改変日を示す情報を、改変したファイルに明記する必要があります。
b) 利用者は、利用者が頒布または公開する著作物、プログラムの全体または一部を含む著作物、あるいはプログラムまたはその一部か
ら派生した著作物を、総じて本使用許諾の条項に従ってすべてのサードパーティに無償で使用許諾する必要があります。
c) 改変されたプログラムが、通常、実行時に対話形式でコマンドを読み取るようになっている場合に、そのプログラムを最も一般的な
方法で対話形式での利用に向けて実行するときは、適切な著作権表示および無保証(あるいは利用者が保証)通告、ユーザがプログラム
をここの条件の下で再頒布できること、本使用許諾の複製物をユーザが閲覧する方法の説明などの告知を出力または表示できるように
する必要があります(例外: プログラム自体が対話型にもかかわらず通常そのような告知を出力しない場合は、プログラムに基づいた利
用者の著作物でも告知を出力する必要はありません)。
こうした要件は、総じて改変された著作物に適用されます。その著作物の一部がプログラムから派生していないと特定できて、それぞ
れが別の独立した著作物であると合理的に考えられる場合、利用者がそれらを別の著作物として頒布するときには、本使用許諾および
その条項はそうした部分には適用されません。しかし、利用者が同じ部分をプログラムに基づいた著作物全体の一部として頒布する場
合は、頒布物全体が、本使用許諾の条項に従わなければなりません。これは、本使用許諾の条項により他の被許諾者に与えられる許可
はプログラム全体に及ぶため、作者にかかわらずあらゆる部分に本使用許諾が適用されるためです。
したがって、この項の趣旨は、利用者がすべて作成した著作物に対して権利を主張したり、利用者の権利に異議を申し立てることはで
はなく、プログラムに基いた派生著作物または集合著作物の頒布を管理する権利を行使することです。
さらに、プログラムに基づいていない別の著作物をプログラム(またはプログラムに基づいた著作物)とともに記憶装置のボリュームや
頒布メディアにまとめただけでは、本使用許諾の適用範囲が他の著作物にまで及ぶことはありません。
3. 利用者は第1項および第2項の条項に従って、プログラム(または第2項のプログラムに基づいた著作物)をオブジェクトコードまたは実
行形式で複製または頒布することができます。ただし、次のいずれかを実施するという条件も付きます。
a) 著作物に、該当するコンピュータの読み取り可能なソースコード一式を添付します。このソースコードを第1項および第2項の条項に
従ってソフトウェアの交換で習慣的に使われるメディアで頒布する必要があります。または、
b) マシンで読み取り可能な該当するソースコードの複製を、ソースの頒布に実際にかかるコストを上回らない程度の手数料で第三者に
提供するために、著作物に、3年以上有効な書面による提案を添付します。このソースコードの複製を第1項および第2項の条項に従っ
てソフトウェアの交換で習慣的に使われるメディアで頒布します。あるいは、
c) 著作物に、該当するソースコードの頒布の提案に関して利用者が得た情報を添付します(この選択肢は、非営利目的の頒布の場合、
および利用者が、先ほどのb項と一致するような提案とともにオブジェクトコードまたは実行可能ファイル形式でプログラムを受領し
た場合に限り選択できます)。
著作物のソースコードとは、それに改変を加える場合に好ましい著作物の形式のことです。実行形式の著作物の場合、「ソースコード
一式」とは、その著作物に含まれているすべてのモジュールのすべてのソースコードのほかに、関連するあらゆるインタフェース定義
ファイル、および実行可能ファイルのコンパイルやインストールの制御に使用されるスクリプトを加えたものを意味します。しかし、
356
ストレージ管理ガイド
特別な例外として、ソースコードを頒布する場合は、通常の頒布物(ソースまたはバイナリ形式)に実行可能ファイルの実行先オペレー
ティングシステムの主要なコンポーネント(コンパイラ、カーネルなど)まで加える必要はありません。ただし、そのコンポーネント自
体に実行可能ファイルが付随する場合は除きます。
指定された場所から複製するためのアクセス手段を提供することによって、実行可能ファイルまたはオブジェクトコードを頒布してい
る場合は、第三者がオブジェクトコードとともにソースを複製するように強制されなくても、ソースコードを同じ場所から複製するた
めに同等のアクセス手段を提供していればソースコードの頒布と見なされます。
4. 利用者は、本利用許諾契約書に明示的に記載されている形態を除き、プログラムを複製、改変、二次利用許諾、および頒布してはな
りません。別の方法でプログラムを複製、改変、二次使用許諾、または頒布しようとするのは無効であり、本使用許諾の下で利用者の
権利は自動的に消滅します。ただし、本使用許諾の下で利用者から複製物または権利を受領した関係者は、条項を遵守している限り、
権利が消滅することはありません。
5. 利用者は、本利用許諾契約書に署名しない限り、それを受け入れる必要はありません。しかし、利用者にプログラムまたはその派生
著作物の改変または頒布の許可を与えるものは、本使用許諾以外にありません。こうした行為は、利用者が本使用許諾を受け入れなけ
れば、法的に禁じられます。したがって、プログラム(またはプログラムに基づいた著作物)を改変または頒布すれば、利用者は、そう
した行為に関して本使用許諾を受け入れ、プログラムまたはプログラムに基づいた著作物の複製、頒布、または改変に関するすべての
条項を承認したことになります。
6. 利用者がプログラム(またはプログラムに基づいた著作物)を再頒布するたびに、受領者は、本利用許諾契約書の条項に従ってプログ
ラムを複製、頒布、または改変するための利用許諾を元の許諾者から自動的に受領します。利用者は、本利用許諾契約書で受領者に付
与された権利の行使に関してさらに制約を課すことはできません。利用者は、第三者の本使用許諾の遵守に対して責任を負うものでは
ありません。
7. 特許侵害に関する裁判所の判決または申し立ての結果として、あるいはその他の理由(特許問題に限らない)で、利用者に課せられた
条件(裁判所の命令、契約などを問わず)が利用許諾契約書の条件と矛盾している場合でも、利用者は利用許諾契約書の条件を免除され
ません。利用者が本使用許諾の下での義務と他の関連する義務を同時に満たすように頒布できない場合は、結果としてプログラムを頒
布してはなりません。たとえば、特許利用許諾で、利用者から直接的または間接的に複製物を受領した者によるプログラムの無償再頒
布が許されていない場合、利用者が特許利用許諾と利用許諾契約書の両方を満足させる唯一の方法は、プログラムの頒布を全面的に中
止することです。
本条項の任意の部分が、特定の状況の下で無効または実施不能になっている場合は、本条項の残りの部分が適用されるようになってい
ますが、他の状況では本条項は総じて適用されるようになっています。
本条項の目的は、特許または他の財産権を侵害したり、そのような権利の主張の正当性を争うことを利用者に勧めることではありませ
ん。本条項の唯一の目的は、フリーソフトウェア流通システムの完全性を保護することであり、一般使用許諾の実践によって実現され
ます。多くの人々が、このシステムの一貫した用途を信頼して、このシステムを介して頒布される広い範囲のソフトウェアに多大な貢
献を果たしてきました。作者や寄贈者が他のシステムを介してソフトウェアを頒布するかどうかを決めるのは本人次第であり、被許諾
者がその選択を強要することはできません。
本条項は、本使用許諾の他の条項の結果と考えられることを徹底的に明らかにすることを目的としています。
8. プログラムの頒布または使用が、特定の国の特許または著作権で保護されたインタフェースのどちらかで制限されている場合、プロ
グラムに本利用許諾契約書を適用した元の著作権者は、そうした国を除外する明示的な地域頒布制限を加えるため、頒布は除外されて
いない国の中やそうした国同士でしか許可されません。そのような場合は、地域頒布制限が本使用許諾の本文に記載されているのと同
様に解釈されます。
9. フリーソフトウェア財団は、一般公衆利用許諾契約書(GPL)の改訂版または新版を随時公表することがあります。そのような新版は、
性格的には現行版と似たものになりますが、新たな問題や懸案事項に対応するために細部が異なる可能性があります。
各版には、区別するための版番号が設定されます。プログラムに、それに適用される本利用許諾契約書の版番号と「後継版」が指定さ
れている場合、利用者は、選択によって現行版の条項またはフリーソフトウェア財団から公開される後継版の条項に従うことになりま
す。「」プログラムに、本利用許諾契約書の版番号が指定されていない場合、利用者は、フリーソフトウェア財団からこれまでに公開
された任意の版を選択することができます。
10. 利用者が、頒布条件の異なる他のフリープログラムにプログラムの一部を組み込みたい場合は、作者に書面で許可を求めてくださ
い。フリーソフトウェア財団が著作権を有するソフトウェアについては、フリーソフトウェア財団に書面で問い合わせてください。例
外を認める場合もあります。FSFの意思決定は、FSFのフリーソフトウェアのすべての派生物をフリーな状態に保つこと、および一般に
ソフトウェアの共有と再利用を促進することという2つの目標を手がかりにしています。
無保証
11. 本プログラムには無償で利用許諾が付与されるため、本プログラムには適用される法律によって許容される範囲まで保証はありま
せん。特に書面に記載されていない限り、著作権者またはその他の当事者(またはその両方)は、本プログラムを「現状のまま」で提供
し、商品性および特定目的に対する適合性の暗示的な保証を含めて(ただしそれに限定されず)、明示的、暗示的を問わず、いかなる保
証の責任も負いません。本プログラムの品質および性能に関する全体的なリスクは利用者が負うものとします。本プログラムに問題が
あると判明した場合、必要な点検、修復、修正にかかる費用はすべて利用者が負担するものとします。
12. 適用される法律によって要求されているか、または書面によって合意されていない限り、いかなる場合も、上記で許可されている
とおりに本プログラムを変更または頒布(またはその両方)することができる著作権者またはいずれかの他の当事者は、本プログラムの
使用または使用不可によって生じた一般的、特殊、偶発的、または間接的な損害を含めて(データの損失、データの不正確な出力、また
は利用者かその他の当事者が被った損失、あるいは他の本プログラムと合わせて動作する本プログラムの障害を含むがそれに限定され
GNU利用許諾契約書
357
ない)、利用者のいかなる損害に対しても責任を負わず、また、そのような著作権者またはその他の当事者がそのような損傷の可能性に
ついて知らされていても一切の責任を負いません。
条項の終わり
こうした条項を新しいプログラムに適用する方法
利用者が新しいプログラムを開発し、できる限り広く一般に使用させたい場合は、本使用許諾の条項に従ってそのプログラムを誰でも
再頒布および変更できるフリーソフトウェアにする方法が最も優れています。
そのためには、プログラムに次の通告を添付してください。保証のないことを最も効果的に伝えるには、各ソースファイルの冒頭に通
告を添付するのが最も無難です。また、各ファイルには、少なくとも「著作権」の行を用意し、全文がある場所を示す必要がありま
す。「」
one line to give the program’s name and an idea of what it does.
Copyright (C) yyyy name of author
This program is
modify it under
as published by
of the License,
free software; you can redistribute it and/or
the terms of the GNU General Public License
the Free Software Foundation; either version 2
or (at your option) any later version.
This program is distributed in the hope that it will be useful,
but WITHOUT ANY WARRANTY; without even the implied warranty of
MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
GNU General Public License for more details.
You should have received a copy of the GNU General Public License
along with this program; if not, write to the Free Software
Foundation, Inc., 59 Temple Place - Suite 330, Boston, MA 02111-1307,
USA.
また、電子メールや郵送で利用者に連絡する方法に関する情報も加えてください。
対話型プログラムの場合は、それを対話モードで起動したときに次のような短い通告が出力されるようにしてください。
Gnomovision version 69, Copyright (C) year name of author
Gnomovision comes with ABSOLUTELY NO WARRANTY; for details
type `show w’. This is free software, and you are welcome
to redistribute it under certain conditions; type `show c’
for details.
仮想コマンド「show w」と「show c」は、一般公衆利用許諾契約書(GPL)の該当する箇所を示すようになっている必要があります。言う
までもなく、利用者が使用するコマンドは、必ずしも「show w」や「show c」のような形式に限定されません。こうしたコマンドには、
利用者のプログラムに合わせたマウスクリックやメニュー項目も考えられます。
また、利用者は、必要に応じて雇用主(プログラマとして作業する場合)または場合によっては学校に、プログラムの「著作権放棄声明
書」に署名してもらう必要があります。「」次に例を示しますが、名前は適当に変更してください。
Yoyodyne, Inc., hereby disclaims all copyright
interest in the program `Gnomovision’
(which makes passes at compilers) written
by James Hacker.
signature of Ty Coon, 1 April 1989
Ty Coon, President of Vice
358
ストレージ管理ガイド
本一般公衆利用許諾契約書(GPL)では、著作権を有するプログラムに利用者のプログラムを組み込むことは許可していません。利用者
のプログラムがサブルーチンライブラリである場合、利用者は、著作権を有するアプリケーションをそのライブラリとリンクすること
を許可した方が有用と考えるかもしれません。利用者がこのような操作を希望する場合は、本利用許諾契約書ではなく、「GNU劣等一
般公衆利用許諾契約書(LGPL)」を適用します。
GNUフリー文書利用許諾契約書(GFDL)
第1.2版、2002年11月
Copyright (C) 2000,2001,2002 Free Software Foundation, Inc. 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
この使用許諾書を一字一句そのままの複製および頒布することは許可されますが、変更は許可されません。
前文
この利用許諾契約書の目的は、マニュアル、テキストブック、またはその他の機能的で有用な文書を、自由という意味で「フリー」に
することです。つまり、そのような文書を、変更の有無や商用非商用に関わらず、コピーまたは再配布する実効的な自由をすべての
人々に保証することです。第二に、本利用許諾契約書は、作者または発行者が他者によって行われた変更について責任を負わないとと
もに、その著作物の功績が確保されるように意図されています。
本利用許諾契約書は、「コピーレフト」(著作物を自由に複製および改変できるようにすること)の一種であり、文書の派生著作物は、
それ自体が同じ意味においてフリーでなければなりません。「」フリーソフトウェア向けに考慮されたコピーレフト利用許諾である
GNU一般公衆利用許諾契約書(GPL)を補足するものです。
弊社は、この利用許諾契約書をフリーソフトウェアのマニュアルに使用するために設計しました。それは、フリーソフトウェアにはフ
リーマニュアルが必要だからです。つまり、フリープログラムには、そのソフトウェアと同じ自由を提供するマニュアルが付属しなけ
ればなりません。ただし、本利用許諾契約書は、ソフトウェアマニュアルに制限されるものではありません。主題であるか否か、また
は印刷された本として発行されるか否かに関わらず、任意のテキスト著作物に使用することができます。本利用許諾契約書は、その目
的が指示または参照に置かれている著作物に主に使用することを推奨します。
適用範囲と定義
本利用許諾契約書は、この利用許諾の条項に従って頒布できることを定めた著作権者の通告が記載されている任意のメディアにおける
マニュアルまたは他の著作物に適用されます。そのような通告は、その著作物をここに記載されている条件に従って使用するための世
界的な無償の利用許諾を無期限で付与します。次に示す「文書」は、そのような任意のマニュアルまたは著作物を指します。「」その
公衆ユーザはいずれも被許諾者であり、「利用者」と呼ばれます。「」利用者は、著作権法に従った許可が必要になるような方法で著
作物を複製、変更または頒布する場合に、利用許諾を受け入れます。
文書の「変更された版」とは、そのまま複製されるか、変更または別の言語に翻訳された(またはその両方)文書あるいはその一部を含
んだ著作物のことです。「」
「二次セクション」は、文書の発行者または作者と文書の全体的な主題(または関連事項)との関係のみを示す文書の名前付き付録また
は前付け部分です。総体的な主題に直接関わる内容は含まれていません。「」(したがって、文書が部分的に数学のテキストブックに
なっている場合、二次セクションでは数学について説明されない場合があります)。関係には、主題または関連事項との歴史的なつなが
り、あるいはそれらに関する法的、商的、哲学的、倫理的、政治的位置付けが含まれる場合があります。
「不変セクション」は、文書が本利用許諾契約書の条件の下でリリースされる旨を述べている通告において、そのタイトルが不変セク
ションのものとして指定されている、ある特定の二次セクションです。「」セクションが、すでに説明した二次セクションの定義に一
致しない場合は、不変として指定することはできません。文書には、不変セクションが含まれない場合があります。文書で不変セク
ションを特定しない場合、不変セクションは含まれません。
「カバーテキスト」とは、文書が本利用許諾契約書の条件の下でリリースされる旨を述べている通告において、表カバーテキストまた
は裏カバーテキストとして列挙されている、ある一定の短い文章のことです。「」表カバーテキストは、最大で5語、裏カバーテキス
トは、最大で25語によって構成できます。
文書の「透過的な複製」とは、その仕様が一般の利用者にとって入手可能で、一般的なテキストエディタまたは一般的な描画プログラ
ム(画素で構成される画像用)、あるいは広く使用されている図面エディタ(図面用)で文書を直接改訂するのに適した形式で表される機械
可読の複製のことです。テキストフォーマッタへの入力またはテキストフォーマッタへの入力に適したさまざまな形式への変換に適し
ていることも前提になります。読者による以後の変更を阻止または妨げるようにマークアップまたはマークアップのない状態が調整さ
れている、他の点では透過的なファイル形式で行われた複製は、透過的な複製ではありません。イメージ形式は、相当量のテキストに
使用されている場合、透過的ではありません。「透過的」ではない複製は、「不透明」と呼ばれます。
透過的な複製に適した形式として、マークアップのないプレーンなASCII、Texinfo入力形式、LaTeX入力形式、一般に取得可能なDTD
を使用するSGMLまたはXML、標準に準拠したHTML、人為的変更用のPostScriptまたはPDFがあります。透過的なイメージ形式には、
PNG、XCF、JPGが含まれます。不透明な形式には、独自のワードプロセッサのみで読み取りおよび編集を行える独自の形式、DTDま
たは処理(またはその両方)ツールを一般に取得できないSGMLまたはXML、機械生成HTML、出力のみを目的として一部のワードプロ
セッサによって作成されるPostScriptまたはPDFが含まれます。
「タイトルページ」とは、印刷された本の場合、タイトルページ自体、および本利用許諾契約書でタイトルページに表示することが要
求されるマテリアルを読みやすいように保持するために必要な以降のページのことを指します。「」そのようなタイトルページがない
GNU利用許諾契約書
359
形式の著作物の場合、「タイトルページ」は、本文の開始部分に先行する、著作物のタイトルを最も顕著に表している部分の近くにあ
るテキストのことを指します。「」
「XYZという表題の付いた」セクションとは、そのタイトルが正確にXYZになっているか、またはXYZを別の言語に翻訳しているテキ
ストに続いてカッコ付きのXYZが含まれている文書の名前付きサブユニットのことです。「」(ここで、XYZは、次に示すように、「謝
辞」、「献辞」、「推薦」、「履歴」などの特定のセクション名を表します)。「」「」「」「」文書を変更するときに、そのようなセ
クションの「タイトルを保存する」とは、この定義に従って「XYZという表題の付いた」セクションが残されることを表します。「」
「」
文書では、本利用許諾契約書が文書に適用される旨を述べている通告の付近に保証の放棄を含めることができます。保証の放棄条項
は、本利用許諾契約書内の参照によって、保証の放棄に関してのみ組み込まれると見なされます。つまり、これらの保証の放棄条項が
もつ可能性のある他のいかなる含意も無効であり、本利用許諾契約書の意味にまったく影響を与えません。
そのままの複製
利用者は、商用か否かを問わず、任意のメディアにおいて文書を複製または頒布することができます。その際に、本利用許諾契約書、
著作権表示、および本利用許諾契約書が文書に適用される旨を述べる利用許諾通告をすべての複製で再生し、本利用許諾契約書の条件
に他のいかなる条件も追加しないことが前提条件になります。利用者は、技術的手段によって、作成または頒布する複製の読み込みま
たはさらなる複製を妨げたり、制御したりすることはできません。ただし、複製と引き換えに対価を受け取ることができます。十分に
大量の複製を頒布する場合は、セクション3の条件に従う必要もあります。
すでに述べた同じ条件に従って複製を貸与したり、複製を公開したりすることもできます。
大量の複製
発行する文書の印刷した複製(または、通常、印刷したカバーをもつメディアに含まれた複製)が100部を超え、文書の利用許諾通告でカ
バーテキストを必要とする場合は、すべてのカバーテキスト(表カバーの表カバーテキスト、裏カバーの裏カバーテキスト)を明瞭かつ
読みやすく記載したカバーに文書の複製を同封する必要があります。また、両方のカバーでは、これらの複製の発行者として、利用者
を読みやすい状態で明確に識別しなければなりません。表カバーには、フルタイトルを記述し、タイトルのすべての語が同等に目立つ
ようにする必要があります。カバーには他のマテリアルを追加することもできます。カバーに限って変更を行った場合の複製は、文書
のタイトルが保持されていて、これらの条件を満たしている限り、他の点に関してそのままの複製と見なすことができます。
いずれかのカバーで、必要なテキストが多すぎて、読みやすい状態に収まらない場合は、列挙されている最初の部分(問題なく収まる分)
を実際のカバーに記載し、残りの部分を隣接ページに入れます。
文書の不透明な複製を100部以上公開または頒布する場合は、それぞれの不透明な複製とともに機械可読の透過的な複製を含めるか、
それぞれの不透明な複製内あるいはその複製とともに、ネットワークの一般利用者が標準的な一般ネットワークプロトコルを使用し
て、追加マテリアルのない文書の完全な透過的複製をダウンロードするときにアクセスできるコンピュータネットワークの場所を明記
する必要があります。後者のオプションを使用する場合は、不透明な複製の大量頒布を開始するときに十分慎重な手順を取り、この透
過的な複製が、その版の不透明な複製を最後に一般頒布した後(直接またはエージェントや小売業者を通じて)少なくとも1年間、指定し
た場所で継続的にアクセス可能となるように配慮する必要があります。
大量の複製を再頒布する時点よりもかなり前に、文書の作者に連絡して、文書の更新版を提供する機会を与えることが要求されます
が、必須ではありません。
変更
文書の変更された版を、すでに述べた第2項および第3項の条件に従って複製および頒布することができます。その際は、本利用許諾契
約書に確実に従って、変更された版をリリースし、変更された版が文書の役割を担うようにして、その複製を所要する任意の利用者に
変更された版の頒布および変更の利用許諾を与えることが前提になります。また、変更された版で次のことを行う必要があります。
A. タイトルページ(カバーがある場合はカバー上も含める)で、文書、および以前の版の文書(以前の版がある場合は、その旨、文書の履
歴セクションに列挙する)と識別されるタイトルを使用します。前の版と同じタイトルは、その版の元の発行者が許可を与えた場合に、
使用することができます。
B. タイトルページ上に、この要件から解放されない限り、変更された版において変更の著者としての責任を担う1人以上の人またはエ
ンティティとともに、文書の筆頭著者を少なくとも5人、作者として列挙します(5人に満たない場合は、その筆頭著者のすべて)。
C. タイトルページ上に、変更された版の発行者の名前を、発行者として記載します。
D. 文書のすべての著作権表示を保持します。
E. 変更に関する適切な著作権表示を、他の著作権表示の隣に追加します。
F. 著作権表示の直後に、本利用許諾契約書の条項に従って変更された版を利用するための許可を一般利用者に与える利用許諾通告を、
次の補遺に示す形式で含めます。
G. その利用許諾通告に、不変セクションの全リスト、および文書の利用許諾通告で指定されている必須カバーテキストを保持します。
H. 本利用許諾契約書の変更されていない複製を含めます。
I. 「履歴」という表題のセクションを保持して、そのタイトルを保持し、タイトルページに記載されているとおりに、変更された版の
タイトル、年度、新しい作者、発行者を少なくとも示す項目を追加します。文書に「履歴」というセクションがない場合は、そのタイ
360
ストレージ管理ガイド
トルページに記載されているとおりに文書のタイトル、年度、作者、発行者を示すセクションを作成し、前の文章に記載されていると
おりに変更された版を示す項目を追加します。
J. 文書の透過的な複製に一般利用者がアクセスできるように文書で指定されている場合は、そのネットワークの場所、およびその文書
の基盤となった前の版に対応して文書で指定されているネットワークの場所を保持します。これらは、「履歴」セクションに配置する
ことができます。文書自体よりも4年以上前に発行された著作物の場合、または参照されているその版の元の発行者が許可を与えてい
る場合は、そのネットワークの場所を省略することができます。
K. 「謝辞」または「献辞」という表題のセクションの場合は、そのセクションのタイトルを保持し、セクション内に、それぞれの貢
献者謝辞またはその中の献辞(またはその両方)のすべての内容と意味合いを保持します。「」「」
L. 文書のすべての不変セクションを保持し、そのテキストおよびタイトルを未変更のままにします。セクション番号またはそれと同等
の要素は、セクションタイトルの一部と見なされません。
M. 「推薦」という表題の任意のセクションを削除します。「」そのようなセクションは、変更された版に含めることはできません。
N. 既存のセクションのタイトルを変更して、「推薦」という表題にしたり、タイトルが不変セクションと矛盾したりしないようにしま
す。「」
O. 保証の放棄を保持します。
変更された版に、二次セクションと見なされ、文書から複製されたマテリアルを含まない新しい前付けセクションまたは付録が含まれ
る場合は、これらの一部またはすべてを任意に「不変」として指定することができます。これを行うには、変更された版の利用許諾表
示内で列挙されている不変セクションにそのタイトルを追加します。これらのタイトルは、他のすべてのセクションタイトルと異なっ
ている必要があります。
「推薦」という表題のセクションを追加することができますが、その際は、変更された版のさまざまな当事者による推薦以外の要素が
含まれていないことが前提になります。たとえば、校正者によるコメント、または文が標準的な信頼できる定義として組織によって承
認されていることを示すという宣言文などが相当します。「」
表カバーテキストとしての最大5語の短い文、および裏カバーテキストとしての最大25語の短い文を、変更された版のカバーテキスト
のリストの終わりに追加できます。表カバーテキストの短い1文および裏カバーテキストの短い1文のみを、1つのエンティティが追加
できます(またはエンティティによって行われた調整を通じて)。文書に、利用者または利用者が関わる同じエンティティによって行わ
れた調整を通じて前に追加された同じカバーのカバーテキストがすでに含まれている場合は、別のものを追加することはできません
が、古いものを置き換えることができます。ただし、その古いものを追加した前の発行者から明示的な許可を得る必要があります。
文書の作者および発行者は、本利用許諾契約書により、その名前を得るために使用したり、変更された版の推薦を主張または暗示した
りする許可を与えるものではありません。
文書の結合
文書は、すでに述べた変更された版に関するセクション4の条件に従って、本利用許諾契約書の下でリリースされた他の文書と結合す
ることができます。その際は、その組み合わせの中に、元の全文書のすべての不変セクションを未変更のまま含めて、そのすべてを結
合された著作物の不変セクションとしてその利用許諾表示に列挙し、そのすべての保証の放棄を保持することが前提となります。
結合された著作物には、本利用許諾契約書の複製を1つのみ含める必要があります。複数の同一の不変セクションは、単一の複製で置
き換えることができます。同じ名前だが内容の異なる複数の不変セクションがある場合は、そのような各セクションのタイトルを固有
なものにします。その際は、その終わりに、カッコ付きで、そのセクションの元の作者または発行者の名前(既知の場合)、あるいは固
有の番号を追加します。不変セクションのリスト内のセクションタイトルには、結合された著作物の利用許諾表示の場合と同じ調整を
加えます。
組み合わせでは、さまざまな元の文書の「履歴」という表題のセクションを結合して、1つの「履歴」というセクションを構築する必
要があります。同じように、「謝辞」という表題のセクション、および「献辞」という表題のセクションも結合します。「」「」「」
「」「推薦」という表題のすべてのセクションを削除する必要があります。「」
文書のコレクション
文書および本利用許諾契約書の下でリリースされた他の文書から成るコレクションを作成して、さまざまな文書に含まれる本利用許諾
契約書の個々の複製を、コレクションに含まれる単一の複製で置き換えることができますが、他のすべての点での各文書のそのままの
複製に関する本利用許諾契約書の規則に従うことが前提になります。
そのようなコレクションから単一の文書を抽出して、その文書を本利用許諾契約書に従って個々に頒布することができますが、その際
は、本利用許諾契約書の複製を抽出した文書に挿入して、その文書のそのままの複製に関するその他のすべての点で、本利用許諾契約
書に従う必要があります。
独立した著作物の集積
文書またはその派生物を他の個別および独立した文書または著作物とともに、ストレージまたは頒布メディア内またはそのボリューム
上に蓄積することを「集積」と呼びます。その場合は、個々の著作物の許可を超えてその蓄積の利用者の法的権限を制限することに、
蓄積による著作権を使用しないことが前提になります。文書が集積に含まれる場合、本利用許諾契約書は、それ自体が文書の派生著作
物ではない集積内の他の著作物に適用されません。
GNU利用許諾契約書
361
セクション3のカバーテキスト要件が文書のこれらの複製に適用可能であり、文書が集積全体の半分に満たない場合は、文書のカバー
テキストを、集積内の文書のカバー、または文書が電子形式の場合は、電子的な同等のカバーに配置することができます。それ以外の
場合は、集積全体の印刷されたカバー上に表示する必要があります。
翻訳
翻訳は変更の一種と見なされるため、セクション4の条件に従って文書の翻訳を頒布することができます。不変セクションを翻訳で置
き換えるには、その著作権者による特殊な許可が必要ですが、これらの不変セクションの元の版に加えて、不変セクションのすべて、
または一部の翻訳を含めることができます。本利用許諾契約書、文書内のすべての利用許諾表示、および保証の放棄の翻訳を含めるこ
とができますが、その際は、本利用許諾契約書の元の英語版、およびそれらの利用許諾表示と保証の放棄の元の版も含めることが前提
になります。本利用許諾契約書、利用許諾表示、または保証の放棄の翻訳と元の版との間に不一致がある場合は、元の版が優先されま
す。
文書内のセクションに、「謝辞」、「献辞」、または「履歴」という表題が付いている場合は、そのタイトルを保持する(セクション1)
ための要件(セクション4)により、通常は実際のタイトルを変更する必要があります。「」「」「」
消滅
利用者は、本利用許諾契約書に明示的に記載されている形態を除き、文書を複製、改変、二次利用許諾、および頒布してはなりませ
ん。別の方法で文書を複製、改変、二次利用許諾、または頒布しようとするのは無効であり、本利用許諾契約書の下で利用者の権利は
自動的に消滅します。ただし、本使用許諾の下で利用者から複製物または権利を受領した関係者は、条項を遵守している限り、権利が
消滅することはありません。
本利用許諾契約書の将来の改訂
フリーソフトウェア財団は、GNUフリー文書利用許諾契約書(GFDL)の新版または改訂版を随時公表することがあります。そのような新
版は、性格的には現行版と似たものになりますが、新たな問題や懸案事項に対応するために細部が異なる可能性があります。
http://www.gnu.org/copyleft/を参照してください。
本利用許諾契約書の各版には、区別するための版番号が設定されます。文書に、それに適用される本利用許諾契約書の特定の版番号と
「後継版」が指定されている場合、利用者は、選択によって、その指定された版の条項またはフリーソフトウェア財団から公開される
後継版の条項(ドラフトではない)に従うことになります。「」文書に、本利用許諾契約書の版番号が指定されていない場合、利用者は、
フリーソフトウェア財団からこれまでに公開された任意の版(ドラフトではない)を選択することができます。
補遺: 本利用許諾書をご使用の文書に使用する方法
作成した文書内で本利用許諾契約書を使用するには、本利用許諾契約書の複製を文書に含め、タイトルページの直後に、次の著作権お
よび利用許諾表示を挿入します。
Copyright (c) YEAR YOUR NAME.
Permission is granted to copy, distribute and/or modify this document
under the terms of the GNU Free Documentation License, Version 1.2
or any later version published by the Free Software Foundation;
with no Invariant Sections, no Front-Cover Texts, and no Back-Cover
Texts.
A copy of the license is included in the section entitled “GNU
Free Documentation License”.
不変セクション、表カバーテキスト、および裏カバーテキストがある場合は、「with...Texts」の行を次のように置き換えます。
with the Invariant Sections being LIST THEIR TITLES, with the
Front-Cover Texts being LIST, and with the Back-Cover Texts being LIST.
カバーテキストのない不変セクションが含まれている場合、またはこの3つの他の組み合わせの場合は、その2つの代替要素をマージし
て状況に合わせます。
文書にプログラムコードの重要な例が含まれている場合は、GNU一般公衆利用許諾契約書(GPL)などの選択したフリーソフトウェアの
利用許諾に従って、これらの例を平行してリリースし、フリーソフトウェアでのその利用を許可することを推奨します。
362
ストレージ管理ガイド
B
マニュアルの更新
この項では、SUSE Linux Enterprise Server 11の最初のリリース以降に、『SUSE
Linux Enterprise Serverストレージ管理ガイド』に対して行われた文書内容の変
更に関する情報を提供します。
このドキュメントは次の日付に更新されました。
• B.1項 「2013年5月(SLES 11 SP3)」
(364 ページ)
• B.2項 「2013年3月19日」
(366 ページ)
• B.3項 「2013年3月11日」
(366 ページ)
• B.4項 「2013年2月8日」
(367 ページ)
• B.5項 「2013年1月8日」
(368 ページ)
• B.6項 「2012年11月14日」
(370 ページ)
• B.7項 「2012年10月29日」
(371 ページ)
• B.8項 「2012年10月19日」
(371 ページ)
• B.9項 「2012年9月28日」
• B.10項 「2012年4月12日」
(372 ページ)
(374 ページ)
• B.11項 「2012年2月27日(SLES 11 SP2)」
(375 ページ)
• B.12項 「2011年7月12日」
(380 ページ)
• B.13項 「2011年6月14日」
(380 ページ)
• B.14項 「2011年5月5日」
• B.15項 「2011年1月」
(381 ページ)
(381 ページ)
• B.16項 「2010年9月16日」
(382 ページ)
• B.17項 「2010年6月21日」
(383 ページ)
• B.18項 「2010年5月(SLES 11 SP1)」
(385 ページ)
• B.19項 「2010年2月23日」
(388 ページ)
• B.20項 「2009年12月1日」
(389 ページ)
• B.21項 「2009年10月20日」
• B.22項 「2009年8月3日」
(391 ページ)
(393 ページ)
• B.23項 「2009年6月22日」
(393 ページ)
• B.24項 「2009年5月21日」
(395 ページ)
B.1 2013年5月(SLES 11 SP3)
次の項が更新されています。変更内容は次のとおりです。
• B.1.1項 「IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ」
(365 ページ)
• B.1.2項 「デバイスのマルチパスI/Oの管理」
(365 ページ)
• B.1.3項 「mdadmによるソフトウェアRAID 6および10の管理」 (365 ページ)
• B.1.4項 「Linuxファイルシステムの概要」 (365 ページ)
• B.1.5項 「ソフトウェアRAID用のストレージエンクロージャLEDユーティリ
ティ」 (366 ページ)
364
ストレージ管理ガイド
• B.1.6項 「SLES 11のストレージの新機能」 (366 ページ)
B.1.1 IP ネットワークの大容量記憶域: iSCSI
LIOターゲットサーバ
第15章 IP ネットワークの大容量記憶域: iSCSI LIOターゲットサーバ (289 ページ)
は、新たに追加されました。
B.1.2 デバイスのマルチパスI/Oの管理
場所
変更
7.2.6項 「NetAppデバイスでのマル
チパスの使用」 (101 ページ)
このセクションは新たに追加され
ました。
B.1.3 mdadmによるソフトウェアRAID 6およ
び10の管理
場所
変更
10.3.3項 「YaSTパーティショナ付
きコンプレックスRAID 10の作成
」 (210 ページ)
このセクションは新たに追加され
ました。
B.1.4 Linuxファイルシステムの概要
場所
変更
1.2.1項「サブボリュームに対する
Btrfsクォータのサポー
ト」 (8 ページ)
このセクションは新たに追加され
ました。
マニュアルの更新
365
B.1.5 ソフトウェアRAID用のストレージエン
クロージャLEDユーティリティ
第12章 MDソフトウェアRAID用のストレージエンクロージャLEDユーティリ
ティ (235 ページ)は、新たに追加されました。
B.1.6 SLES 11のストレージの新機能
場所
変更
2.1項 「SLES 11 SP3の新機
能」 (27 ページ)
このセクションは新たに追加され
ました。
B.2 2013年3月19日
次の項が更新されています。変更内容は次のとおりです。
• B.2.1項 「Linuxファイルシステムの概要」 (366 ページ)
B.2.1 Linuxファイルシステムの概要
場所
変更
1.2.3.4項 「Ext3ファイルシステム
のinodeサイズとinode
数」 (11 ページ)
本項は、SLES 11におけるinodeサ
イズとバイト数/inode数の比率に対
するデフォルト設定の変更を説明
するために更新されました。
B.3 2013年3月11日
次の項が更新されています。変更内容は次のとおりです。
366
ストレージ管理ガイド
• B.3.1項 「LVMの設定」
(367 ページ)
• B.3.2項 「Linuxファイルシステムの概要」 (367 ページ)
B.3.1 LVMの設定
場所
変更
4.6項 「非ルートLVMボリューム
グループの自動アクティブ
化」 (57 ページ)
このセクションは新たに追加され
ました。
B.3.2 Linuxファイルシステムの概要
場所
変更
1.2.1項 「Btrfs」 (3 ページ)
複数デバイスのサポート。ファイ
ルシステムを拡大したり、縮小で
きます。この機能は、YaSTパー
ティショナの今後のリリースで利
用可能となる予定です。
B.4 2013年2月8日
次の項が更新されています。変更内容は次のとおりです。
• B.4.1項 「ルートパーティション用のソフトウェアRAID1の設定」
(368 ページ)
マニュアルの更新
367
B.4.1 ルートパーティション用のソフトウェ
アRAID1の設定
このセクションは、ソフトウェアRAID1タイプに重点を置くために変更され
ました。ソフトウェアRAID0およびRAID5はサポートされていません。これ
らは、これまでエラーに含まれていました。追加の重要な変更点を以下に記
載しています。
場所
変更
9.1項 「ルートパーティション用の
ソフトウェアRAID1デバイスを使
用するための前提条
件」 (185 ページ)
/bootパーティション用に使用す
る、3つ目のデバイスが必要です。
デバイスは、ローカルのデバイス
である必要があります。
ステップ 4 (188 ページ) での 9.4項
「ルート(/)パーティション用のソ
フトウェアRAID1デバイスの作
成」 (187 ページ)
/bootパーティションを作成しま
す。デバイスは、ローカルのデバ
イスである必要があります。
ステップ 7b (190 ページ) での 9.4項
「ルート(/)パーティション用のソ
フトウェアRAID1デバイスの作
成」 (187 ページ)
[ [RAIDタイプ]で、[RAID 1 (ミ
ラーリング)]を選択します。
B.5 2013年1月8日
次の項が更新されています。変更内容は次のとおりです。
• B.5.1項 「LVMの設定」
(369 ページ)
• B.5.2項 「デバイスのマルチパスI/Oの管理」
368
ストレージ管理ガイド
(369 ページ)
B.5.1 LVMの設定
場所
4.1項 「論理ボリュームマネージャ
(LVM)の理解」 (44 ページ)
変更
重要
LVMの構成後にマルチパスのサ
ポートを追加する場合
は、/etc/lvm/lvm.confファ
イルを修正し、/dev/disk/by
-idディレクトリ内のマルチパ
スデバイス名のみをスキャンす
るようにして(7.2.4項 「マルチパ
スデバイスでのLVM2の使
用」 (97 ページ)に記載するとお
り)、 サーバを再起動します。
B.5.2 デバイスのマルチパスI/Oの管理
場所
変更
7.2.1.5項 「高可用性ソリューショ
ン」 (93 ページ)
各ノード上の/etc/multipath
.confファイル内の構成設定が、
クラスタ全体で同一であるように
してください。
7.2.3項 「マルチパスデバイスでの
WWID、ユーザフレンドリ名、お
よび別名の使用」 (96 ページ)
/dev/disk/by-idディレクトリ
でマルチパスマップのデバイスへ
のリンクを使用する際は、デバイ
スの固定パスインスタンスではな
く、dm-uuid*名または別名を指
定するようにしてください。
7.2.4項 「マルチパスデバイスでの
LVM2の使用」 (97 ページ)
デバイスマッパー名に対して生
ディスクとパーティションの両方
マニュアルの更新
369
場所
変更
を許容する場合は、mpathの前に
ハイフン(-)を付けずに、次のよう
に指定します。
filter = [
"a|/dev/disk/by-id/dm-uuid-.*mpath-.*|",
"r|.*|" ]
7.2.9項 「マルチパスデバイスの
パーティショニング」 (103 ページ)
lvm.confおよびmd.confに対す
る環境設定ファイルが、必ずマル
チパスデバイスの名前をポイント
するようにします。これは、boot
.multipathが有効になってい
て、boot.lvmおよびboot.md以
前にロードされていれば、自動的
に行われます。そうなっていない
場合は、LVMおよびMDの環境設
定ファイルにマルチパスデバイス
に対する固定パスが含まれている
可能性があり、マルチパスデバイ
ス名を使用するためにこれらを修
正する必要があります。
7.9項 「ユーザフレンドリ名または
別名の設定」 (130 ページ)
始める前に、「7.2.3項 「マルチパ
スデバイスでのWWID、ユーザフ
レンドリ名、および別名の使
用」 (96 ページ)」の要件をレ
ビューしてください。
B.6 2012年11月14日
次の節が更新されました。変更内容は次のとおりです。
• B.6.1項 「Linuxファイルシステムの概要」 (371 ページ)
370
ストレージ管理ガイド
B.6.1 Linuxファイルシステムの概要
場所
変更
1.4項 「Linux環境での大規模ファ
イルサポート」 (22 ページ)
このセクションは、SUSE Linux
Enterprise Server技術情報Webサイ
ト [http://www.suse.com/
products/server/technical
-information/]のファイルシス
テムのサポートとサイズ [http://
www.suse.com/products/
server/technical
-information/#FileSystem]と
の一貫性を持たせるため、更新さ
れました。
1.5項 「Linuxのカーネルにおける
ストレージの制限」 (24 ページ)
このセクションは新たに追加され
ました。
B.7 2012年10月29日
前付けおよび誤植正誤表の修正。
B.8 2012年10月19日
次の項が更新されています。変更内容は次のとおりです。
• B.8.1項 「デバイスのマルチパスI/Oの管理」
(372 ページ)
• B.8.2項 「Linuxファイルシステムの概要」 (372 ページ)
マニュアルの更新
371
B.8.1 デバイスのマルチパスI/Oの管理
場所
変更
7.6項 「/etc/multipath.conf Fileの作
成または修正」 (122 ページ)
デバイス設定の具体例が、より上
位の組織レベルに移動しました。
7.6.3項 「etc/multipath.confファイル
でのマルチパスセットアップの確
認」 (125 ページ)
/etc/multipath.confファイル
を修正してドライ実行を行う際
に、変更前の(またはデフォルトの)
マルチパス設定で、multipathd
デーモンがすでに実行されている
ことを前提とします。
B.8.2 Linuxファイルシステムの概要
場所
変更
1.2.3.4項 「Ext3ファイルシステム
のinodeサイズとinode
数」 (11 ページ)
Ext3ファイルシステムのファイル
に対する拡張属性およびACL用の
スペースを確保するため、Ext3に
対するデフォルト のinodeサイズ
が、SLES 10での 256バイトから、
SLES11では256バイトに増えまし
た。
B.9 2012年9月28日
次の項が更新されています。変更内容は次のとおりです。
• B.9.1項 「デバイスのマルチパスI/Oの管理」
(373 ページ)
• B.9.2項 「Linuxファイルシステムの概要」 (374 ページ)
372
ストレージ管理ガイド
B.9.1 デバイスのマルチパスI/Oの管理
場所
変更
7.2.2項 「multipath-tools-0.4.9におけ
るPRIO設定」 (95 ページ)
SLES 11 SP2では、Prioritizerの指定
にはprioキーワードが使われ、
Prioritizerが引数を必要とする場合
は、その引数の指定にprio_args
キーワードが使われます。
マルチパスツール0.4.9以降で
は、/etc/multipath.confファ
イルのdefaults{}または
devices{}セクションのprio設
定を使用します。キーワードprio
が、multipath{)セクションの個
別のmultipaths定義に指定され
た場合は、暗黙のうちに無視され
ます。
7.11.2.1項 「優先度グループと属性
の理解」 (138 ページ)
prioおよびprio_argsキーワー
ドの使用に関する情報を追加しま
した。
7.11.2.1項 「優先度グループと属性
の理解」 (138 ページ)
SLES 11 SP2では、rr_min_ioマルチ
パス属性は廃止となり、
rr_min_io_rq属性に代わりました。
7.19.1項 「マルチパス0.4.9への更
新後に、個別デバイスのprio設定が
失敗する」 (175 ページ)
このセクションは新たに追加され
ました。
7.19.2項 「multipath-tools-0.4.9への
更新後に、引数を伴うprio設定が失
敗する」 (175 ページ)
このセクションは新たに追加され
ました。
マニュアルの更新
373
場所
変更
7.19.3項 「技術情報ドキュメン
ト」 (176 ページ)
こわれたリンクを修正しました。
B.9.2 Linuxファイルシステムの概要
場所
変更
1.2.1項 「Btrfs」 (3 ページ)
Btrfsツールパッケージは
btrfsprogsです。
B.10 2012年4月12日
次の項が更新されています。変更内容は次のとおりです。
• B.10.1項 「デバイスのマルチパスI/Oの管理」
(374 ページ)
• B.10.2項 「mdadmによるソフトウェアRAIDアレイのサイズ変更」
(375 ページ)
B.10.1 デバイスのマルチパスI/Oの管理
この項は、すべての例でデバイスパスに/dev/disk/by-idディレクトリを
使用するよう更新されました。
374
ストレージ管理ガイド
B.10.2 mdadmによるソフトウェアRAIDアレ
イのサイズ変更
場所
変更
11.3項 「ソフトウェアRAID
のサイズの削
減」 (227 ページ)
個々のコンポーネントパーティションのサ
イズを縮小する前にRAIDのサイズを縮小
するよう、手順の順番を修正しました。
B.11 2012年2月27日(SLES 11 SP2)
次の項が更新されています。変更内容は次のとおりです。
• B.11.1項 「Fibre Channel Storage over Ethernet Networks: FCoE」 (376 ページ)
• B.11.2項 「GNU利用許諾契約書」
• B.11.3項 「LVMの設定 」
(376 ページ)
(376 ページ)
• B.11.4項 「NFSv4上でのアクセス制御リストの管理」 (376 ページ)
• B.11.5項 「デバイスのマルチパスI/Oの管理」
(376 ページ)
• B.11.6項 「mdadmによるソフトウェアRAID 6および10の管理」 (377 ページ)
• B.11.7項 「IPネットワークの大容量記憶域 - iSCSI 」
(378 ページ)
• B.11.8項 「Linuxファイルシステムの概要」 (378 ページ)
• B.11.9項 「ファイルシステムのサイズ変更」
(379 ページ)
• B.11.10項 「mdadmによるソフトウェアRAIDアレイのサイズ変更」
(380 ページ)
マニュアルの更新
375
B.11.1 Fibre Channel Storage over Ethernet
Networks: FCoE
このセクションは新たに追加されました。OpenFCoE (Open Fibre Channel over
Ethernet)のサポートは、SLES 11から開始されています。
B.11.2 GNU利用許諾契約書
このセクションは新たに追加されました。
B.11.3 LVMの設定
場所
変更
4.7項 「LVM2ストレージオ
ブジェクトのタグ付
け」 (58 ページ)
このセクションは新たに追加されました。
B.11.4 NFSv4上でのアクセス制御リストの管
理
このセクションは新たに追加されました。
B.11.5 デバイスのマルチパスI/Oの管理
376
場所
変更
7.7項 「ポーリング、待ち
行列、およびフェールバッ
ク用のデフォルトポリシー
の設定」 (128 ページ)
SLES 11のデフォルトパスgetuid
は、/lib/udev/scsi_idです。
ストレージ管理ガイド
場所
変更
7.17項 「エラーになったI/O
の管理」 (172 ページ)
dmsetup messageコマンドでは、値0は
セクタを表し、セクタ情報が不要なときに
使用されます。
7.18項 「停止したI/Oの解
決」 (174 ページ)
7.11.2.1項 「優先度グルー
プと属性の理
解」 (138 ページ)
クラスタ環境でマルチパスI/Oを使用する
際のno_path_retryおよびフェールバックの
設定に関して、推奨事項を追加しました。
7.11.2.1項 「優先度グルー
プと属性の理
解」 (138 ページ)
パスセレクタオプションの名前と設定が修
正されました:
round-robin 0
least-pending 0
service-time 0
queue-length 0
B.11.6 mdadmによるソフトウェアRAID 6お
よび10の管理
場所
変更
10.3.1.6項 「offsetレイアウ
ト」 (207 ページ)
このセクションは新たに追加されました。
マニュアルの更新
377
B.11.7 IPネットワークの大容量記憶域 - iSCSI
場所
変更
14.4項 「インストール時の
iSCSIディスクの使
用」 (284 ページ)
このセクションは新たに追加されました。
14.5.4項 「設定ファイルが
手動に設定されていると、
iSCSIターゲットがマウント
される」 (287 ページ)
このセクションは新たに追加されました。
B.11.8 Linuxファイルシステムの概要
場所
変更
1.2.1項
「Btrfs」 (3 ページ)
このセクションは新たに追加されました。
SUSE Linux Enterprise 11 SP2から、Btrfs
ファイルシステムがルートのファイルシス
テムとしてサポートされます。つまり、
SUSE Linux Enterprise 11 SP2のすべての
アーキテクチャにわたる、オペレーティン
グシステム用のファイルシステムです。
1.2.4項
「ReiserFS」 (16 ページ)
重要
ReiserFSファイルシステムは、特にマイ
グレーション用として、SUSE Linux
Enterprise Server 11のライフタイムの
間、完全にサポートされます。SUSEで
は、SUSE Linux Enterprise Server 12か
378
ストレージ管理ガイド
場所
変更
ら、新しいReiserFSファイルシステムの
作成をサポートしない予定です。
1.2.6項 「ファイルシステム
の機能比較」 (19 ページ)
このセクションは新たに追加されました。
1.4項 「Linux環境での大規
模ファイルサポー
ト」 (22 ページ)
このセクションの値は、現在の規格に合わ
せて更新されました。
1.6項 「YaST パーティショ
ナによるデバイスの管
理」 (25 ページ)
このセクションは新たに追加されました。
B.11.9 ファイルシステムのサイズ変更
場所
変更
5.1項 「サイズ変更のガイ
ドライン」 (73 ページ)
resize2fsコマンドでは、マウントされてい
る場合にExt3ファイルシステムのみサイズ
変更可能です。 Ext3ボリュームのサイズ
を、ボリュームのマウントまたはアンマウ
ント時に拡大または縮小できます。ボ
リュームサイズを拡大または縮小するため
には、Ext2/4ファイルシステムをアンマウ
ントする必要があります。
5.4項 「Ext2またはExt3ファ
イルシステムのサイズの削
減」 (78 ページ)
マニュアルの更新
379
B.11.10 mdadmによるソフトウェアRAIDア
レイのサイズ変更
場所
変更
11.2.2項 「RAIDアレイのサ
イズの増加」 (222 ページ)
--assume-cleanは新しいオプションで
す。
B.12 2011年7月12日
次の節が更新されました。変更内容は次のとおりです。
• B.12.1項 「デバイスのマルチパスI/Oの管理」
(380 ページ)
B.12.1 デバイスのマルチパスI/Oの管理
場所
変更
7.2.4項 「マルチパスデバイ
スでのLVM2の使
用」 (97 ページ)
mkinitrdの実行が必要なのは、ルート(/)
デバイスまたはその一部
(/var、/etc、/logなど)がSAN上にあ
り、マルチパスのブートが必要な場合のみ
です。
7.13項 「既存ソフトウェア
RAID用マルチパスI/Oの設
定」 (161 ページ)
B.13 2011年6月14日
次の節が更新されました。変更内容は次のとおりです。
• B.13.1項 「デバイスのマルチパスI/Oの管理」
380
ストレージ管理ガイド
(381 ページ)
• B.13.2項 「SLES 11のストレージの新機能」
(381 ページ)
B.13.1 デバイスのマルチパスI/Oの管理
場所
変更
7.11.2.1項 「優先度グルー
プと属性の理
解」 (138 ページ)
path_grouping_policyのデフォルト設定が、
SLES 11ではマルチバスからフェールオー
バーに変更となりました。
B.13.2 SLES 11のストレージの新機能
場所
変更
2.4.13項 「MPIOパスグルー
プ化ポリシーのデフォルト
設定として、マルチバスか
らフェールオーバーへの変
更」 (38 ページ)
このセクションは新たに追加されました。
B.14 2011年5月5日
このリリースでは、壊れたリンクが修復され、古い参照が削除されています。
B.15 2011年1月
次の節が更新されました。変更内容は次のとおりです。
• B.15.1項 「LVMの設定」
(382 ページ)
• B.15.2項 「デバイスのマルチパスI/Oの管理」
• B.15.3項 「ファイルシステムのサイズ変更」
(382 ページ)
(382 ページ)
マニュアルの更新
381
B.15.1 LVMの設定
場所
変更
4.3項 「ボリュームグルー
プの作成」 (49 ページ)
LVM2では、物理エクステントのい数を制
限しません。エクステントが多くても、論
理ボリュームに対するI/Oパフォーマンス
に影響しませんが、LVMツールの動作が
遅くなります。
B.15.2 デバイスのマルチパスI/Oの管理
場所
変更
特定ホストバスアダプタの
フェイルオーバーの調整
このセクションは削除されました。HBA
フェールオーバーのガイダンスについて
は、ベンダのマニュアルをを参照してくだ
さい。
B.15.3 ファイルシステムのサイズ変更
場所
変更
11.3.1項 「ファイルシステ
ムのサイズの削
減」 (227 ページ)
ファイルシステムのサイズの縮小は、ファ
イルシステムのマウント解除時にサポート
されています。
B.16 2010年9月16日
次の項が更新されています。変更内容は次のとおりです。
• B.16.1項 「LVMの設定」
382
ストレージ管理ガイド
(383 ページ)
B.16.1 LVMの設定
場所
変更
4.2項 「LVMパーティショ
ンの作成」 (46 ページ)
説明と手順が拡張され、ディスク全体を使
用するパーティションの設定方法が説明さ
れています。
手順は、YaSTパーティショナでハードディ
スクのパーティショニング機能を使用する
ように変更されました。
すべてのLVM管理セクショ
ン
この章全体を通じて、YaSTパーティショ
ナでボリューム管理を使用するように手順
が変更されました。
4.8項 「ボリュームグルー
プのサイズ変
更」 (67 ページ)
このセクションは新たに追加されました。
4.9項 「YaSTによる論理ボ
リュームのサイズ変
更」 (69 ページ)
このセクションは新たに追加されました。
4.11項 「ボリュームグルー
プの削除」 (71 ページ)
このセクションは新たに追加されました。
4.12項 「LVMパーティショ
ン(物理ボリューム)の削
除」 (72 ページ)
このセクションは新たに追加されました。
B.17 2010年6月21日
次の項が更新されています。変更内容は次のとおりです。
• B.17.1項 「LVMの設定」
(384 ページ)
マニュアルの更新
383
• B.17.2項 「マルチパスI/Oの管理」
(384 ページ)
• B.17.3項 「mdadmによるソフトウェアRAID 6および10の管理」 (385 ページ)
• B.17.4項 「IPネットワークの大容量記憶域 - iSCSI」
(385 ページ)
B.17.1 LVMの設定
場所
変更
4.2項 「LVMパーティショ
ンの作成」 (46 ページ)
手順に詳細が追加されました。
B.17.2 マルチパスI/Oの管理
384
場所
変更
7.9項 「ユーザフレンドリ
名または別名の設
定」 (130 ページ)
ルートデバイスにユーザフレンドリな名前
を使用すると、データが失われることがあ
ります。「TID 7001133: Recommendations
for the usage of user_friendly_names in
multipath configurations [http://www
.novell.com/support/search.do
?cmd=displayKC&docType=kc
&externalId=7001133]」から代替の方
法が追加されました。
ストレージ管理ガイド
B.17.3 mdadmによるソフトウェアRAID 6お
よび10の管理
場所
変更
10.3.1.5項 「farレイアウ
ト」 (207 ページ)
例のエラーが修正されました。
B.17.4 IPネットワークの大容量記憶域 - iSCSI
場所
変更
14.5.1項 「ホットプラグで
iSCSIターゲットをマウント
できない」 (285 ページ)
このセクションは新たに追加されました。
B.18 2010年5月(SLES 11 SP1)
次の項が更新されています。変更内容は次のとおりです。
• B.18.1項 「デバイスのマルチパスI/Oの管理」
(386 ページ)
• B.18.2項 「IPネットワークの大容量記憶域 - iSCSI」
• B.18.3項 「ソフトウェアRAIDの設定」
• B.18.4項 「新機能」
(387 ページ)
(388 ページ)
(388 ページ)
マニュアルの更新
385
B.18.1 デバイスのマルチパスI/Oの管理
386
場所
変更
7.2.4項 「マルチパスデバイ
スでのLVM2の使
用」 (97 ページ)
ステップ 3 (98 ページ)の例は修正されま
した。
7.2.8項 「ルートデバイスが
マルチパスの場合のSANタ
イムアウト設
定」 (102 ページ)
このセクションは新たに追加されました。
7.3.2項 「マルチパスI/O管
理ツール」 (112 ページ)
パッケージのファイルリストは、サーバの
アーキテクチャによって異なることがあり
ます。multipath-toolsパッケージに含まれ
ているファイルのリストについては、
「[SUSE Linux Enterprise Server Technical
Specifications]」の「[Package
Descriptions]」Webページ [http://www
.novell.com/products/server/
techspecs.html?tab=1]にアクセスし
て、目的のアーキテクチャを見つけ、
[パッケージを名前でソート]を選択し、
次に、「multipath-tools」で検索して、そ
のアーキテクチャのパッケージリストを見
つけます。
7.4.1項 「マルチパス処理用
SANデバイスの準
備」 (118 ページ)
SANデバイスがサーバ上でルートデバイス
として使用される場合は、7.2.8項 「ルー
トデバイスがマルチパスの場合のSANタイ
ムアウト設定」 (102 ページ)に示されてい
るように、デバイスのタイムアウト設定を
変更します。
7.6.3項 「etc/multipath.conf
ファイルでのマルチパス
-v3冗長レベルの出力例が追加されました。
ストレージ管理ガイド
場所
変更
セットアップの確
認」 (125 ページ)
7.12.1.1項 「アクティブ/ア
クティブマルチパススト
レージLUNでインストール
時にマルチパスI/Oを有効に
する」 (157 ページ)
このセクションは新たに追加されました。
7.12.1.2項 「アクティブ/
パッシブマルチパススト
レージLUNでインストール
時にマルチパスI/Oを有効に
する」 (157 ページ)
このセクションは新たに追加されました。
B.18.2 IPネットワークの大容量記憶域 - iSCSI
場所
変更
ステップ 7g (272 ページ) で
の 14.2.2項 「YaSTを使った
iSCSIターゲットの作
成」 (268 ページ)
[YaST]の[Network Services][iSCSI
Target]機能の[保存]オプションを使用
すると、iSCSIターゲット情報をエクスポー
トできます。これにより、この情報をリ
ソースの利用者に簡単に提供することがで
きます。
14.5項 「iSCSIのトラブル
シューティン
グ」 (284 ページ)
このセクションは新たに追加されました。
マニュアルの更新
387
B.18.3 ソフトウェアRAIDの設定
場所
変更
8.4項 「詳細情
報」 (183 ページ)
『Software RAID HOW-TO』は、サポート
されなくなりました。代わりに、「Linux
RAID wiki [https://raid.wiki.kernel
.org/index.php/Linux_Raid]」を使
用してください。
B.18.4 新機能
場所
変更
2.3項 「SLES 11 SP1の新機
能」 (29 ページ)
このセクションは新たに追加されました。
B.19 2010年2月23日
次の項が更新されています。変更内容は次のとおりです。
• B.19.1項 「ルートパーティション用のソフトウェアRAIDの設定」
(389 ページ)
• B.19.2項 「マルチパスI/Oの管理」
388
ストレージ管理ガイド
(389 ページ)
B.19.1 ルートパーティション用のソフトウェ
アRAIDの設定
場所
変更
9.1項 「ルートパーティショ
ン用のソフトウェアRAID1
デバイスを使用するための
前提条件」 (185 ページ)
RAID 0の定義のエラーを修正しました。
B.19.2 マルチパスI/Oの管理
場所
変更
7.14項 「新規デバイスのス
キャン(再起動な
し)」 (164 ページ)
再起動せずにデバイスをスキャンできる
rescan-scsi-bus.shスクリプトの使用
に関する情報を追加しました。
7.15項 「パーティショニン
グされた新規デバイスのス
キャン(再起動な
し)」 (168 ページ)
再起動せずにデバイスをスキャンできる
rescan-scsi-bus.shスクリプトの使用
に関する情報を追加しました。
B.20 2009年12月1日
次の項が更新されています。変更内容は次のとおりです。
• B.20.1項 「デバイスのマルチパスI/Oの管理」
• B.20.2項 「ファイルシステムのサイズ変更」
• B.20.3項 「新機能」
(390 ページ)
(390 ページ)
(391 ページ)
マニュアルの更新
389
B.20.1 デバイスのマルチパスI/Oの管理
場所
変更
7.2.4項 「マルチパスデバイ
スでのLVM2の使
用」 (97 ページ)
-f mpathオプションが-f multipathに変更さ
れました。
mkinitrd -f multipath
7.13項 「既存ソフトウェア
RAID用マルチパスI/Oの設
定」 (161 ページ)
7.11.2.1項 「優先度グルー
プと属性の理
解」 (138 ページ)の
prio_callout
マルチパスのprio_calloutsプログラム
は、/lib/libmultipath/lib*内の共
有ライブラリ内にあります。共有ライブラ
リを使用することで、デーモンの起動時、
コールアウトプログラムがメモリにロード
されます。
B.20.2 ファイルシステムのサイズ変更
390
場所
変更
5.1.1項 「サイズ変更をサ
ポートしているファイルシ
ステム」 (74 ページ)
resize2fsユーティリティが、ext3ファイル
システムのオンライン、またはオフライン
のサイズ変更をサポートするようになりま
した。
ストレージ管理ガイド
B.20.3 新機能
場所
変更
2.4.11項 「マルチパスツー
ルコールアウトの場所の変
更」 (38 ページ)
このセクションは新たに追加されました。
2.4.12項 「mkinitrd -fオプ
ションのmpathからmultipath
への変更」 (38 ページ)
このセクションは新たに追加されました。
B.21 2009年10月20日
次の項が更新されています。変更内容は次のとおりです。
• B.21.1項 「LVMの設定」
(391 ページ)
• B.21.2項 「デバイスのマルチパスI/Oの管理」
• B.21.3項 「新機能」
(392 ページ)
(392 ページ)
B.21.1 LVMの設定
場所
変更
4.1項 「論理ボリュームマ
ネージャ(LVM)の理
解」 (44 ページ)
YaSTコントロールセンターで、[システ
ム] > [パーティショナ]の順に選択し
ます。
マニュアルの更新
391
B.21.2 デバイスのマルチパスI/Oの管理
場所
変更
7.8項 「非マルチパスデバ
イスのブラックリスト
化」 (129 ページ)
キーワードdevnode_blacklistは廃止され、
キーワードblacklistに代わりました。
7.7項 「ポーリング、待ち
行列、およびフェールバッ
ク用のデフォルトポリシー
の設定」 (128 ページ)
getuid_calloutがgetuidに変更されました。
7.11.2.1項 「優先度グルー
プと属性の理
解」 (138 ページ)
getuid_calloutがgetuidに変更されました。
7.11.2.1項 「優先度グルー
プと属性の理
解」 (138 ページ)
least-pending、length-load-balancing、およ
びservice-timeの各オプションのパスセレク
タに関する説明を追加しました。
B.21.3 新機能
392
場所
変更
2.4.10項 「マルチパスのた
めの高度な入出力負荷バラ
ンスオプショ
ン」 (37 ページ)
このセクションは新たに追加されました。
ストレージ管理ガイド
B.22 2009年8月3日
次の節が更新されました。この変更については次に説明しています。
• B.22.1項 「マルチパスI/Oの管理」
(393 ページ)
B.22.1 マルチパスI/Oの管理
場所
変更
7.2.7項 「マルチパスデバイ
スでの--noflushの使
用」 (101 ページ)
このセクションは新たに追加されました。
B.23 2009年6月22日
次の項が更新されています。変更内容は次のとおりです。
• B.23.1項 「マルチパスI/Oの管理」
(393 ページ)
• B.23.2項 「mdadmによるソフトウェアRAID 6および10の管理」 (394 ページ)
• B.23.3項 「IPネットワークの大容量記憶域 - iSCSI 」
(394 ページ)
B.23.1 マルチパスI/Oの管理
場所
変更
7.12項 「ルートデバイスの
マルチパスI/Oの設
定」 (156 ページ)
System Zにステップ 4 (161 ページ)およびス
テップ 6 (161 ページ)を追加しました。
マニュアルの更新
393
場所
変更
7.15項 「パーティショニン
グされた新規デバイスのス
キャン(再起動な
し)」 (168 ページ)
ステップ2のコマンドラインの構文を修正
しました。
7.15項 「パーティショニン
グされた新規デバイスのス
キャン(再起動な
し)」 (168 ページ)
ステップ 7 (169 ページ)ではステップ7とス
テップ8を変更しました。
B.23.2 mdadmによるソフトウェアRAID 6お
よび10の管理
場所
変更
10.4項 「ディグレードアレ
イの作成」 (214 ページ)
毎秒更新されている間に再構築の進捗を確
認するには、次のように入力します。
watch -n 1 cat /proc/mdstat
B.23.3 IPネットワークの大容量記憶域 - iSCSI
場所
変更
14.3.1項 「YaSTを使った
iSCSIイニシエータの設
定」 (277 ページ)
わかりやすくするため、内容を整理しまし
た。
iSCSIターゲットデバイスの起動オプショ
ンの設定の使用法に関する情報を追加しま
した。
394
ストレージ管理ガイド
場所
変更
• 自動: このオプションは、iSCSIサービ
ス自体の起動時に接続するiSCSIターゲッ
トに使用されます。これが通常の設定で
す。
• Onboot(起動時): このオプションは、起
動時、つまりルート(/)がiSCSI上にある
場合に接続するiSCSIターゲットに使用
します。したがって、iSCSIターゲット
デバイスはサーバの起動時にinitrdによっ
て評価されます。
B.24 2009年5月21日
次の節が更新されました。変更内容は次のとおりです。
• B.24.1項 「マルチパスI/Oの管理」
(395 ページ)
B.24.1 マルチパスI/Oの管理
場所
変更
7.2.11.1項 「マルチパス処
理用に自動検出されるスト
レージアレイ」(105 ページ)
IBM zSeriesデバイスをマルチパス処理で
テストした結果、dev_loss_tmoパラメータ
を90秒に、fast_io_fail_tmoパラメータを5
秒に設定する必要があることわかりまし
た。zSeriesデバイスをご使用の場合は、手
動で/etc/multipath.confファイルの
作成と設定を行い、値を指定する必要があ
ります。詳細については、7.10項 「zSeries
デバイスのデフォルト設定の設
定」 (135 ページ)を参照してください。
マニュアルの更新
395
396
場所
変更
7.3.1項 「デバイスマッパー
マルチパスモジュー
ル」 (109 ページ)
マルチパス処理は、SUSE Linux Enterprise
Server 11以降の/bootデバイスに対してサ
ポートされています。
7.10項 「zSeriesデバイスの
デフォルト設定の設
定」 (135 ページ)
このセクションは新たに追加されました。
7.12項 「ルートデバイスの
マルチパスI/Oの設
定」 (156 ページ)
SUSE Linux Enterprise Server 11で
は、/bootおよび/root用のDM-MPがサ
ポート、および提供されるようになりまし
た。
ストレージ管理ガイド
© Copyright 2026 Paperzz