RAID
関連記事
Redundant Array of Independent Disks (個別のディスクによる冗長化集合、RAID) とは、複数のディスクドライブ (典型的にはディスクドライブかパーティシヨン) を組み合わせて1つの論理ユニットとして扱うストレージ技術です。RAID の実装に応じて、この論理ユニットは1つのファイルシステムや、いくつかのパーティションを保持する更なる透過型レイヤとすることができます。(必要な冗長性とパフォーマンスのレベルに応じて) #RAID レベル と呼ばれるいくつかの方法の内いずれかを使用して、データをドライブの集合にまたがって分散させます。選択する RAID レベルによって、ハードディスク障害時にデータ損失を防いだり、パフォーマンスを向上させたり、あるいは両方を実現できます。
この記事では mdadm によるソフトウェア RAID アレイの作成および管理方法を説明します。
目次
RAID レベル
ほとんどの RAID レベルで冗長性が確保されていますが、RAID はデータが安全であることを保証するものではありません。火事があったときや、コンピュータが盗まれたとき、または複数のドライブが同時に壊れた場合など RAID はデータを保護しません。さらに、RAID でシステムをインストールするのは複雑な作業であり、そのときにデータを破壊してしまう可能性もあります。
スタンダード RAID レベル
RAID のレベルはたくさん存在します、以下は最も一般的なレベルです。
- RAID 0
- ストライピングを使ってディスクを結合します。RAID 0 には冗長性がありませんが、RAID とされています。耐障害性がない代わりに、速度が向上する恩恵があります。データが消失する可能性を差し引いても速度を上げる価値がある場合 (例えばスワップパーティション)、この RAID レベルを選択します。サーバーでは、RAID 1 や RAID 5 アレイを使う方が適切です。RAID 0 アレイのブロックデバイスのサイズは一番小さいコンポーネントパーティションとコンポーネントパーティションの数を掛けた値になります。
- RAID 1
- 最もシンプルな RAID レベル: ミラーリングです。他の RAID レベルと同様に、パーティションを複数の物理ディスクドライブに配置した時にだけ意味をなします。ドライブのどれか一台が故障しても、RAID アレイによるブロックデバイスは通常通りに稼働し続けます。使用例としては、スワップや一時的なデータを除いて全てを RAID 1 に保存するというものがあるでしょう。ソフトウェア実装を使う場合、ブートパーティションで使えるのは RAID 1 レベルしかないので注意してください。ブートパーティションを読み込むブートローダーは RAID を認識できないながらも、RAID 1 のコンポーネントパーティションは通常のパーティションとして読み込めるからです。RAID 1 アレイのブロックデバイスのサイズは一番小さいコンポーネントパーティションと同じになります。
- RAID 5
- 三台以上の物理ドライブが必要で、RAID 0 の速度・サイズのメリットを残しながら RAID 1 の冗長性を実現します。RAID 5 は RAID 0 と同じようにストライピングを使いますが、それに加えてそれぞれのディスクに分散してパリティブロックの記録を行います。ディスクが故障した時は、パリティブロックを利用して交換したディスクにデータを再構築します。RAID 5 は一台のディスクの喪失まで耐えることが可能です。
- RAID 6
- 四台以上の物理ドライブを必要とし、RAID 5 の利点を活かしながらドライブが二台故障しても安全です。RAID 6 も RAID 5 と同じようにストライピングを使用しますが、二つの異なるパリティブロックをそれぞれのメンバーディスクに分散して保存します。ディスクが故障したときは、パリティブロックを利用して交換したディスクにデータを再構築します。RAID 6 は二台のディスクの喪失まで耐えることが可能です。ドライブを再構築するときでもアレイにパリティブロックが存在するため、読み取りエラーに対する堅牢性は高くなっています。ただし、オーバーヘッドを考えると RAID 6 はコストがかかります。大抵の場合は far2 レイアウトの RAID 10 のほうが高い性能と堅牢性を確保できます (下を参照)。
ネスト RAID レベル
- RAID 1+0
- RAID 1+0 は2つの標準 RAID レベルを組み合わせてパフォーマンスと冗長性を獲得する入れ子の RAID です。よく RAID 10 と呼ばれますが、Linux MD RAID 10 は単純な RAID レイヤーとは多少異なっています。下記を見てください。
- RAID 10
- Linux における RAID 10 は RAID 1+0 の概念に基づいていますが、シングルレイヤーとして実装することで複数のレイアウトが可能になっています。
- Y 台のディスクによる near X レイアウトは Y/2 個のストライプで X 個のチャンクが作成されますが、Y を均等に X で割る必要はありません。near という名前のとおり、チャンクは複製されるディスクに近い場所に配置されます。2台以上の任意の台数のディスクを使うことができます。2台のディスクによる Near 2 は RAID 1 と同じであり、4台のディスクによる Near 2 は RAID 1+0 と同じです。
- Y 台のディスクによる far X レイアウトはストライプによる読み取り性能を複製されたアレイで発揮します。ディスクをフロントとバックに分けて、ディスク1のフロントはディスク2のバックに複製され、ディスク2のフロントはディスク1のバックに複製されます。RAID 0 や RAID 5 と同じように、シーケンシャルリードを高速化することが可能です。欠点としては複製を保存するのにディスクがシークする距離が長くなるためシーケンシャルライトが遅くなります。それでも、読み込み速度が重要で可用性・冗長性が必要な場合はレイヤー化された RAID 1+0 と RAID 5 よりも far 2 レイアウトの RAID 10 を使うことを推奨します。ただしバックアップを置き換えることはできません。詳細は該当する wikipedia ページを参照してください。
RAID 比較
RAID レベル | データの冗長性 | 物理ドライブの利用効率 | 読込パフォーマンス | 書込パフォーマンス | 最小ドライブ数 |
---|---|---|---|---|---|
0 | No | 100% | nX
最速 |
nX
最速 |
2 |
1 | Yes | 50% | 複数プロセスが読み込む場合 nX まで、それ以外では 1X | 1X | 2 |
5 | Yes | 67% - 94% | (n−1)X
高速 |
(n−1)X
高速 |
3 |
6 | Yes | 50% - 88% | (n−2)X | (n−2)X | 4 |
10,far2 | Yes | 50% | nX
最速; RAID0 と同等だが冗長 |
(n/2)X | 2 |
10,near2 | Yes | 50% | 複数プロセスが読み込む場合 nX まで、それ以外では 1X | (n/2)X | 2 |
* n は利用するディスクの数。
非推奨の RAID レベル
- LINEAR
- LINEAR は2つ以上のデバイスを単一のデバイスにマッピングできます。RAID0 のような並列アクセスはありませんが、異なるサイズを持つ複数のディスクを完全に使用できます。しかし、2021年にこのレベルは非推奨となり、2023年に Linux カーネル (
linear.ko
モジュール) から削除されました (コミット 849d18e を参照)。mdadm を使わずにこのモードで疑似 RAID を作成するには、低レベルな dmsetup(8) ユーティリティか、高レベルな LVM フレームワークまたは Btrfs ファイルシステムを使用できます。
実装
RAID デバイスの制御方法は様々です:
- ソフトウェア RAID
- 内部のよくわからないプロプライエタリなファームウェアやソフトウェアの使用に依存しないため、これが最も簡単な実装です。アレイはオペレーティングシステムによって以下のいずれかで管理されます:
- ハードウェア RAID
- PC に取り付けた専用のハードウェアカードにディスクを直接接続してアレイを直接制御します。ホストプロセッサ (CPU) とは独立したオンボードのプロセッサ上で RAID が処理されます。この方法はオペレーティングシステムから独立していますが、ハードウェア RAID コントローラを正しく作動させるためにはドライバーが必要になります。RAID アレイの設定は、メーカーによって、オプション ROM インターフェイスを使ったり、OS をインストールしたあとで専用のアプリケーションを使って行います。この構成は Linux カーネルから見て透過的であり、システムには単一のディスクとして認識されます。
- FakeRAID
- このタイプの RAID は正しくは BIOS RAID またはオンボード RAID と呼ぶべきですが、ハードウェア RAID として偽って喧伝されています。アレイは疑似 RAID コントローラで管理され、RAID の管理システムはオプション ROM かファームウェア自体に EFI SataDriver で実装されています (UEFI の場合)。しかし、RAID の機能すべてが実装された完全なハードウェア RAID コントローラーではありません。そのため、このタイプの RAID は FakeRAID と呼称されることがあります。FakeRAID のコントローラは dmraid を使って扱います。FakeRAID コントローラの例: Intel Rapid Storage、JMicron JMB36x RAID ROM、AMD RAID、ASMedia 106x、NVIDIA MediaShield など。
使用している RAID はどのタイプか?
ソフトウェア RAID の実装はユーザーが行うため、ソフトウェア RAID を使っていることは簡単にわかります。
反対に、FakeRAID と真のハードウェア RAID を見分けるのは難しいかもしれません。上記の通り、しばしばメーカーはこれら二つの RAID タイプを誤って区別していることがあり、不当表示も考えられます。この場合、最も良い方法は lspci
コマンドを実行して、出力から RAID コントローラーを探すことです。そして、その RAID コントローラーに関する情報を検索することです。Hardware RAID コントローラーは先のコマンドのリストに現れますが、FakeRAID の実装は現れません。また、真のハードウェア RAID コントローラーは高価であることが多いので、システムをカスタマイズする際、ハードウェア RAID の構成を選択するとコンピューターの価格にそれとわかるくらいの差があるはずです。
インストール
mdadm をインストールして下さい。mdadm はプレーンなブロックデバイスを使って純粋なソフトウェア RAID を管理するために使用されます:基底のハードウェアは RAID ロジックを提供せず、ディスクだけ供給します。mdadm はどんなブロックデバイスの組み合わせでも使うことができます。あまり一般的でない組み合わせであってもです。例えば、USB ドライブを集めて RAID アレイを作成することも可能です。
デバイスの準備
デバイスを再利用する場合や、既存のアレイを作り直す場合、古い RAID 構成情報を全て消去してください:
# mdadm --misc --zero-superblock /dev/drive
もしくは、ドライブ上の特定のパーティションを削除する場合は:
# mdadm --misc --zero-superblock /dev/partition
デバイスをパーティショニングする
アレイに使用するディスクをパーティショニングすることが強く推奨されます。ほとんどの RAID ユーザーは 2 TiB 以上のディスクドライブを選択するため、GPT が必須ですし推奨されます。パーティショニングやパーティショニングツールに関する詳細は パーティショニング の記事を見てください。
GUID Partition Table
- (GPT の) パーティションを作成したあと、パーティションのパーティションタイプの GUID は
A19D880F-05FC-4D3B-A006-743F0F84911E
になっている必要があります (このタイプは、fdisk ではパーティションタイプLinux RAID
を、gdisk ではFD00
を選択することで割り当てることができます)。 - 大きなディスクアレイを使用する場合は、後で個々のディスクを簡単に判別できるようにするためにファイルシステムラベルかパーティションラベルを割り当てることを検討してください。
- 各デバイスのサイズと同じサイズのパーティションを作成することが推奨されます。
Master Boot Record
HDD 上に MBR パーティションテーブルでパーティションを作成する場合、利用できるパーティションタイプの ID は以下の通りです:
- ファイルシステムデータ以外には
0xDA
(fdisk ではNon-FS data
)。これは Arch Linux で RAID アレイを作成する際の推奨される mdadm パーティションタイプです。 - RAID 自動検出アレイには
0xFD
(fdisk ではLinux RAID autodetect
)。このパーティションタイプは、RAID 自動検出が望ましい場合に限り (initramfs を用いないシステムや、古い mdadm メタデータフォーマットの場合)、使用するべきです。
詳細は Linux Raid Wiki:Partition Types を見てください。
アレイの構築
mdadm
を使ってアレイを構築します。サポートされているオプションは mdadm(8) を見てください。例をいくつか以下に挙げます。
以下の例では、2つのデバイスを使用する RAID1 アレイを構築しています:
# mdadm --create --verbose --level=1 --metadata=1.2 --raid-devices=2 /dev/md/MyRAID1Array /dev/sdb1 /dev/sdc1
以下の例では、4つのアクティブデバイスと1つのスペアデバイスを使用して RAID5 アレイを構築しています:
# mdadm --create --verbose --level=5 --metadata=1.2 --chunk=256 --raid-devices=4 /dev/md/MyRAID5Array /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 --spare-devices=1 /dev/sdf1
以下の例では、2つのデバイスを使って RAID10,far2 アレイを構築しています:
# mdadm --create --verbose --level=10 --metadata=1.2 --chunk=512 --raid-devices=2 --layout=f2 /dev/md/MyRAID10Array /dev/sdb1 /dev/sdc1
アレイは仮想デバイス /dev/mdX
に作成され、アセンブルされて (縮退モードで) 使用できます。このデバイスファイルは直接使うことができ、mdadm がバックグラウンドでアレイを同期してくれます。パリティのレストアには長い時間がかかる可能性があります。進捗は次のコマンドで確認できます:
$ cat /proc/mdstat
設定ファイルの更新
デフォルトでは、mdadm.conf
内の殆どの行がコメントアウトされており、以下だけが含まれています:
/etc/mdadm.conf
... DEVICE partitions ...
このディレクティブは、/proc/partitions
から参照されているデバイスを検査し、可能な限り多くのアレイをアセンブルします。あなたが利用可能なアレイを全て起動するつもりで、想定外のスーパーブロックが検出されないことが確実である場合には、これで良いでしょう。より正確な方法は、アレイを明示的に /etc/mdadm.conf
に追加することです:
# mdadm --detail --scan >> /etc/mdadm.conf
結果は以下のようになります:
/etc/mdadm.conf
... DEVICE partitions ... ARRAY /dev/md/MyRAID1Array metadata=1.2 name=pine:MyRAID1Array UUID=27664f0d:111e493d:4d810213:9f291abe
この場合でも mdadm は /proc/partitions
から参照されているデバイスを検査します。しかし、27664…
の UUID を持つスーパーブロックのみがアクティブなアレイにアセンブルされます。
詳細は mdadm.conf(5) を参照してください。
アレイのアセンブル
設定ファイルを更新できたら、mdadm を使ってアレイをアセンブルできます:
# mdadm --assemble --scan
RAID ファイルシステムのフォーマット
これまでの手順を終えた今、他のファイルシステムと同じようにアレイをファイルシステムでフォーマットすることができます。覚えておくべきことは:
- ボリュームサイズが巨大であるため、一部のファイルシステムは適しません (Wikipedia:Comparison of file systems#Limits を参照)。
- 使用するファイルシステムはオンラインでの拡張と縮小に対応している必要があります (Wikipedia:Comparison of file systems#Features を参照)。
- 最適なパフォーマンスを得るには適切なストライドとストライプ幅を計算する必要があります。
ストライドとストライプ幅の計算
ファイルシステムの構造を基底の RAID 構造に合うように最適化するにはストライドとストライプ幅の2つを調整する必要があります。これらは RAID のチャンクサイズ、ファイルシステムのブロックサイズ、"データディスク"の数から導かれます。
チャンクサイズは RAID アレイのプロパティであり、RAID の作成時に決まります。mdadm
の現在のデフォルト値は 512 KiB です。mdadm
を使えば、チャンクサイズを調べられます:
# mdadm --detail /dev/mdX | grep 'Chunk Size'
ブロックサイズはファイルシステムのプロパティであり、ファイルシステムの作成時に決まります。多くのファイルシステム (ext4 を含む) でデフォルトのブロックサイズは 4 KiB となっています。ext4 に関する詳細は /etc/mke2fs.conf
を参照してください。
"データディスク"の数とは、データの損失を引き起こさずに完全にアレイを再構築するのに必要なデバイスの最小数です。例えば、N 個のデバイスからなるアレイでは RAID0 では N 個となり、RAID5 では N - 1 個となります。
これら3つの値がわかったら、以下の公式でストライドとストライプ幅を計算できます:
ストライド = チャンクサイズ / ブロックサイズ ストライプ幅 = データディスクの数 * ストライド
例 1. RAID0
適切なストライドとストライプ幅で ext4 でフォーマットする例:
- 仮に RAID0 アレイは2つの物理ディスクからなるとします。
- チャンクサイズは 512 KiB とします。
- ブロックサイズは 4 KiB です。
ストライド = チャンクサイズ / ブロックサイズ。この例では、512 / 4 となり、ストライド = 128 です。
ストライプ幅 = 物理データディスクの数 * ストライド。この例では、2 * 128 となり、ストライプ幅 = 256 です。
# mkfs.ext4 -v -L myarray -b 4096 -E stride=128,stripe-width=256 /dev/md0
例 2. RAID5
適切なストライドとストライプ幅で ext4 でフォーマットする例:
- 仮に RAID5 アレイは4つの物理ディスクからなり、3つはデータディスク、1つはパリティディスクとします。
- チャンクサイズは 512 KiB とします。
- ブロックサイズは 4 KiB です。
ストライド = チャンクサイズ / ブロックサイズ。この例では、512 / 4 となり、ストライド = 128 です。
ストライプ幅 = 物理データディスクの数 * ストライド。この例では、3 * 128 となり、ストライプ幅 = 384 です。
# mkfs.ext4 -v -L myarray -b 4096 -E stride=128,stripe-width=384 /dev/md0
ストライドとストライプ幅に関する詳細は RAID Math を参照してください。
例 3. RAID10,far2
適切なストライドとストライプ幅で ext4 でフォーマットする例:
- 仮に RAID10 アレイは2つの物理ディスクからなるとします。far2 レイアウトでの RAID10 の性質上、これら2つともデータディスクとしてカウントします。
- チャンクサイズは 512 KiB とします。
- ブロックサイズは 4 KiB です。
ストライド = チャンクサイズ / ブロックサイズ。この例では、512 / 4 となり、ストライド = 128 です。
ストライプ幅 = 物理データディスクの数 * ストライド。この例では、2 * 128 となり、ストライプ幅 = 256 です。
# mkfs.ext4 -v -L myarray -b 4096 -E stride=128,stripe-width=256 /dev/md0
ライブ CD からマウント
ライブ CD から RAID パーティションをマウントしたい場合、次のコマンドを使います:
# mdadm --assemble /dev/<disk1> /dev/<disk2> /dev/<disk3> /dev/<disk4>
ディスクアレイが存在しないのに誤って RAID 1 と認識されて (mdadm --detail /dev/md<number>
)、inactive と報告される場合 (cat /proc/mdstat
)、先にアレイを停止してください:
# mdadm --stop /dev/md<number>
RAID に Arch Linux をインストール
インストール手順のパーティショニングとフォーマットの間に RAID アレイを作成してください。root ファイルシステムにするパーティションを直接フォーマットする代わりに、RAID アレイの上に作成します。セットアップセクションの指示に従って RAID アレイを作成してください。その後はインストールの手順に従って pacstrap のステップが完了するところまで進みます。UEFI で起動する場合、EFI システムパーティション#RAID 上に ESP を配置も読んでください。
設定ファイルの更新
ベースシステムをインストールしたら、デフォルトの設定ファイル mdadm.conf
を次のようにして更新する必要があります:
# mdadm --detail --scan >> /mnt/etc/mdadm.conf
上のコマンドを実行した後は、かならずテキストエディタを使って mdadm.conf 設定ファイルをチェックして中身が問題ないか確認してください。
インストールの手順に戻って “Initial ramdisk 環境の作成” のステップまで進んだら、次のセクションを見て下さい。
mdadm フックを mkinitcpio.conf に追加する
init イメージに直接 mdadm のサポートを追加するために mkinitcpio の HOOKS セクションに mdadm_udev
を追加してください:
HOOKS="base udev autodetect block mdadm_udev filesystems usbinput fsck"
HOOKS に変更を加えた後は initramfs イメージを再生成します (イメージ作成とアクティベーションを参照):
# mkinitcpio -p linux
ブートローダーの設定
RAID アレイごとに md
カーネルパラメータを追加してください。また、root
パラメータでマッピングするデバイスを正しく指定します。以下の例では三つの RAID 1 アレイを記述しており適当な一つを root として設定しています:
root=/dev/md1 md=0,/dev/sda2,/dev/sdb2 md=1,/dev/sda3,/dev/sdb3 md=2,/dev/sda4,/dev/sdb4
上記のカーネルデバイスノードによる方法だとソフトウェア raid パーティションからの起動が失敗する場合、もうひとつの信頼性のある方法としてパーティションラベルを使う方法があります:
root=LABEL=Root_Label
GRUB#RAID も参照してください。
RAID のメンテナンス
スクラビング
誤りをチェック・修正するために定期的にデータスクラビングを実行するのは良い習慣です。アレイのサイズや設定にもよりますが、スクラブは完了するまでかなり時間がかかります。
データスクラブを開始するには:
# echo check > /sys/block/md0/md/sync_action
check オペレーションは不良セクタがないかドライブをスキャンして自動的に不良セクタを修復します。不良データ (他のディスクが示すデータと一致しないセクタのデータ、例えば、パリティブロックと他のデータブロックによって該当するデータブロックが不正だと判断される場合など) を含んでいる良好セクタを見つけた場合、対処は何もされませんが、イベントが記録されます (下を参照)。"何もされない"ことで、管理者はセクタのデータと、重複するデータからセクタを再生成することで得られるデータを検査して正しいデータを選んで保持することができます。
mdadm に関連する様々なタスクやアイテムと同様に、スクラブの状態は /proc/mdstat
を読み出すことで調べることができます。
例:
$ cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [raid1] md0 : active raid1 sdb1[0] sdc1[1] 3906778112 blocks super 1.2 [2/2] [UU] [>....................] check = 4.0% (158288320/3906778112) finish=386.5min speed=161604K/sec bitmap: 0/30 pages [0KB], 65536KB chunk
実行中のデータスクラブを安全に停止するには:
# echo idle > /sys/block/md0/md/sync_action
スクラブが完了したら、(不良セクタがあった場合) いくつのブロックが不良として判断されたか確認することができます:
# cat /sys/block/md0/md/mismatch_cnt
スクラビングの一般的な注意事項
定期的にスクラブを root で実行する cron ジョブを設定するのは良い考えです。ジョブの設定に役立つ raid-checkAUR を見て下さい。cron の代わりに systemd タイマーを使ってスクラブを実行したい場合は raid-check-systemdAUR をインストールしてください。systemd タイマーのユニットファイルとスクリプトが含まれています。
スクラビングの RAID1 と RAID10 の注意事項
カーネルにおける RAID1 と RAID10 の書き込みはバッファがないため、アレイが問題ないときでもアレイにゼロ以外のミスマッチがカウントされることがあります。このようなゼロ以外のカウントは一時的なデータ領域にしか存在せず、問題は起こりません。しかしながら、一時的なデータのゼロ以外のカウントと実際に問題が起こっていることを示すゼロ以外のカウントを見分けることはできません。このために RAID1 や RAID10 アレイでは誤検知が発生することがあります。それでもデバイスにあるかもしれない不良セクタを見つけて直すために定期的にスクラブすることを推奨します。
アレイからデバイスを削除する
アレイからデバイスを削除する際は削除する前にそのデバイスが壊れているとマークを付けます:
# mdadm --fail /dev/md0 /dev/sdxx
そしてアレイからデバイスを削除します:
# mdadm -r /dev/md0 /dev/sdxx
ドライブを完全に削除するときは (例えば、今後別の方法で使用する) 上記の2つのコマンドを実行した後に:
# mdadm --zero-superblock /dev/sdxx
アレイの使用を停止:
- 対象のアレイをアンマウント
- 次のコマンドでアレイを停止:
mdadm --stop /dev/md0
- セクションの最初に書かれている3つのコマンドを各デバイスで繰り返し実行。
/etc/mdadm.conf
から対応する行を削除
アレイに新しいデバイスを追加する
デバイスがマウントされている動作中のシステム上で mdadm を使って新しいデバイスを追加することができます。上述しているように既存のアレイの一つとして同じレイアウトを使って新しいデバイスをパーティションしてください。
RAID アレイを構築していない場合は構築します:
# mdadm --assemble /dev/md0 /dev/sda1 /dev/sdb1
アレイに新しいデバイスを追加:
# mdadm --add /dev/md0 /dev/sdc1
mdadm がデバイスを追加するのにはあまり時間はかかりません。進捗を確認するには:
# cat /proc/mdstat
デバイスが追加されたかは次のコマンドで確認:
# mdadm --misc --detail /dev/md0
RAID0 アレイの場合
以下のようなエラーが表示された場合:
mdadm: add new device failed for /dev/sdc1 as 2: Invalid argument
これはおそらく RAID0 を使っていることが原因です。上のコマンドは新しいディスクを"スペア"として追加しますが、RAID0 にはスペアは存在しません。RAID0 アレイにデバイスを追加したいときは、一つのコマンドで "grow" して "add" する必要があります:
# mdadm --grow /dev/md0 --raid-devices=3 --add /dev/sdc1
RAID ボリュームのサイズを増やす
RAID アレイに巨大なディスクを追加した場合やパーティションサイズを増やした場合、RAID ボリュームのサイズを増加させて空き領域を埋めると良いでしょう。まずは上のセクションに従って RAID ボリュームを再構築してください。再構築が完了したら領域を埋めるように拡張してください:
# mdadm --grow /dev/md0 --size=max
そして RAID ボリューム /dev/md0
に存在するパーティションのサイズを変更してください。詳しくはパーティショニングを参照。最後に、パーティション内のファイルシステムをリサイズしてください。gparted
でパーティショニングした場合、自動的にリサイズされます。他のツールを使った場合、パーティションをアンマウントして手動でファイルシステムをリサイズしてください:
# umount /storage # fsck.ext4 -f /dev/md0p1 # resize2fs /dev/md0p1
同期速度の制限を変更
同期には時間がかかります。マシンで他の作業をしていない場合、速度制限を上げることが可能です。
# cat /proc/mdstat
Personalities : [raid1] md0 : active raid1 sda3[2] sdb3[1] 155042219 blocks super 1.2 [2/1] [_U] [>....................] recovery = 0.0% (77696/155042219) finish=265.8min speed=9712K/sec unused devices: <none>
現在の制限速度を確認:
# cat /proc/sys/dev/raid/speed_limit_min
1000
# cat /proc/sys/dev/raid/speed_limit_max
200000
制限を上げる:
# echo 400000 >/proc/sys/dev/raid/speed_limit_min # echo 400000 >/proc/sys/dev/raid/speed_limit_max
上記の設定後、同期速度と予想完了時間を確認してみてください:
# cat /proc/mdstat
Personalities : [raid1] md0 : active raid1 sda3[2] sdb3[1] 155042219 blocks super 1.2 [2/1] [_U] [>....................] recovery = 1.3% (2136640/155042219) finish=158.2min speed=16102K/sec unused devices: <none>
sysctl#MDADM も参照してください。
監視
RAID デバイスの状態を出力するシンプルなワンライナー:
awk '/^md/ {printf "%s: ", $1}; /blocks/ {print $NF}' </proc/mdstat
md1: [UU] md0: [UU]
Watch mdstat
watch -t 'cat /proc/mdstat'
または tmux を使う場合:
tmux split-window -l 12 "watch -t 'cat /proc/mdstat'"
iotop で IO を追跡
iotop パッケージはプロセスの入出力の統計を表示します。次のコマンドを使って raid スレッドの IO を表示することができます。
iotop -a -p $(sed 's, , -p ,g' <<<`pgrep "_raid|_resync|jbd2"`)
iostat で IO を追跡
sysstat パッケージに入っている iostat ユーティリティはデバイスやパーティションの入出力の統計を表示します。
iostat -dmy 1 /dev/md0 iostat -dmy 1 # all
イベントでメールを送信
smtp メールサーバー (sendmail) かメールフォワーダ (ssmtp/msmtp) が必要です。おそらく一番シンプルな方法は dmaAUR を使うことです。とても小さく (インストール容量 0.08 MiB) でセットアップがいりません。
/etc/mdadm.conf
を編集して通知を受信するメールアドレスを指定します。
設定をテストするには:
# mdadm --monitor --scan --oneshot --test
mdadm には監視作業を行う systemd サービス (mdmonitor.service) が含まれているため、ここで、やるべきことはもうありません。/etc/mdadm.conf
でメールアドレスを設定していないと、サービスは失敗します。mdadm イベントでメールを受けとりたくない場合は、サービスの失敗は無視してかまいません。通知を表示したくなく、失敗メッセージが気になるならば、ユニットをマスクしてください。
その他の方法
smtp メールサーバーやメールフォワーダをインストールする代わりに、既存の S-nail ツールを使うこともできます (忘れずにセットアップしてください)。
以下の内容で /etc/mdadm_warning.sh
という名前のファイルを作成:
#!/bin/bash event=$1 device=$2 echo " " | /usr/bin/mailx -s "$event on $device" destination@email.com
実行権限を与えます: chmod +x /etc/mdadm_warning.sh
それから mdadm.conf
にこのファイルを追加してください:
PROGRAM /etc/mdadm_warning.sh
前記の方法と同じ方法でテスト・有効化します。
トラブルシューティング
再起動した時に "invalid raid superblock magic" というエラーが表示される場合、ハードドライブを追加したときは、ハードドライブの順番が正しいか確認してください。インストール時の RAID デバイスは hdd, hde, hdf だったとしても起動時には hda, hdb, hdc になっているかもしれません。カーネルラインをそれにあわせて修正してください。
エラー: "kernel: ataX.00: revalidation failed"
突然 (再起動後または BIOS の設定を変更した後) 以下のようなエラーメッセージが表示された場合:
Feb 9 08:15:46 hostserver kernel: ata8.00: revalidation failed (errno=-5)
これは必ずしもドライブが壊れたことを意味しているわけはありません。要するに、まだあわてるような時間じゃありません。BIOS やカーネルパラメータで APIC または ACPI 設定を変更した場合、設定を戻せば問題ないはずです。大抵は、ACPI をオフにすれば直ります。
読み取り専用でアレイを起動
md アレイが起動すると、スーパーブロックが書き出され、resync が走ることがあります。読み取り専用で起動するにはカーネルモジュール md_mod
のパラメータ start_ro
を設定します。これが設定されている場合、新しいアレイは 'auto-ro' モードになり、内部 io (スーパーブロックの更新, resync, recovery) が全て無効化されて、書き込みリクエストが来た時に初めて 'rw' に自動的に切り替わります。
起動時にパラメータを設定するには、カーネル行に md_mod.start_ro=1
を追加してください。
もしくはモジュールのロード時に /etc/modprobe.d/
ファイルや /sys/
から直接設定します。
echo 1 > /sys/module/md_mod/parameters/start_ro
raid の故障したまたは存在しないドライブからリカバリする
何らかの理由でドライブの一つが壊れた時も上述のエラーが表示されることがあります。その場合、ディスクが一つ足りない状態でも raid がオンになるようにしなくてはなりません。次のコマンドを入力 (必要に応じて変更してください):
# mdadm --manage /dev/md0 --run
これで次のようにしてまたマウントできるようになったはずです (fstab で記述している場合):
# mount /dev/md0
raid がまた動作するようになって使えるようにはなりましたが、ディスクが一つ不足しています。ディスクを追加するためにデバイスの準備で記述しているようにしてパーティションしてください。パーティションしたら次のコマンドで raid に新しいディスクを追加できます:
# mdadm --manage --add /dev/md0 /dev/sdd1
次を入力すれば:
# cat /proc/mdstat
raid が有効になって再構築されたことが確認できるでしょう。
設定を更新しても良いかもしれません (参照: 設定ファイルの更新)。
ベンチマーク
RAID をベンチマークするツールは複数存在します。複数のスレッドが同じ RAID ボリュームから読み込む際の速度の向上が最もわかりやすい改善点です。
bonnie++ はひとつまたは複数のファイルへのデータベースタイプのアクセスをテストしたり、小さなファイルを作成・読込・削除することで Squid や INN、または Maildir フォーマットのメールなどといったプログラムの使用をシミュレートします。同梱されている ZCAV プログラムはディスクに書き込みを行わずにハードドライブの異なる領域のパフォーマンスをテストします。
hdparm
を RAID のベンチマークに使ってはいけません。出てくる結果には全く一貫性が無いからです。
参照
- Linux Software RAID (thomas-krenn.com)
- Linux カーネルアーカイブの Linux RAID wiki エントリ
- How Bitmaps Work
- Red Hat Enterprise Linux 6 ドキュメントの 第15章: Redundant Array of Independent Disks (RAID)[リンク切れ 2024-07-30]
- Linux Documentation Project の Linux-RAID FAQ
- Art S. Kagel による BAARF (Archive.org) と Why should I not use RAID 5? (Archive.org)
- Linux Magazine の Introduction to RAID、Nested-RAID: RAID-5 and RAID-6 Based Configurations、Intro to Nested-RAID: RAID-01 and RAID-10、Nested-RAID: The Triple Lindy
- HowTo: Speed Up Linux Software Raid Building And Re-syncing
- Wikipedia:Non-RAID drive architectures
メーリングリスト
mdadm
- mdadm のソースコード
- Linux Magazine の Software RAID on Linux with mdadm
- Wikipedia - mdadm
フォーラムのスレッド