「LVM」の版間の差分
(→暗号化: 追加) |
細 (→LVM の構成要素: 訳を修正) |
||
(同じ利用者による、間の17版が非表示) | |||
14行目: | 14行目: | ||
{{Related articles end}} |
{{Related articles end}} |
||
[[Wikipedia:ja:論理ボリュームマネージャ|Wikipedia]] より: |
[[Wikipedia:ja:論理ボリュームマネージャ|Wikipedia]] より: |
||
+ | |||
− | :LVM は [[Wikipedia:ja:Linuxカーネル|Linux カーネル]]の[[Wikipedia:ja:論理ボリュームマネージャ|論理ボリュームマネージャ]]です。ディスクドライブと大容量記憶装置を管理します。 |
||
+ | :論理ボリュームマネージャ (Logical Volume Manager, LVM) とは、[[Wikipedia:ja:Linuxカーネル|Linux カーネル]]に[[Wikipedia:ja:論理ボリュームマネージャ|論理ボリューム管理]]を提供する[[Wikipedia:device mapper|デバイスマッパー]]フレームワークです。 |
||
== 背景 == |
== 背景 == |
||
20行目: | 21行目: | ||
=== LVM の構成要素 === |
=== LVM の構成要素 === |
||
− | Logical Volume Management は Linux カーネルの [http://sources.redhat.com/dm/ device-mapper] 機能を利用して、基底のディスクレイアウトから独立した[[パーティション]]のシステムを提供します。LVM を使うことでストレージを抽象化し「仮想的なパーティション」を作成して、[[#論理ボリュームとファイルシステムのサイズを別々に変更する|拡張/縮小]]を容易にします (ファイルシステムの制限を受ける可能性 |
+ | Logical Volume Management は Linux カーネルの [http://sources.redhat.com/dm/ device-mapper] 機能を利用して、基底のディスクレイアウトから独立した[[パーティション]]のシステムを提供します。LVM を使うことでストレージを抽象化し「仮想的なパーティション」を作成して、[[#論理ボリュームとファイルシステムのサイズを別々に変更する|拡張/縮小]]を容易にします (ファイルシステムの制限を受ける可能性はあります)。 |
仮想パーティションにより、パーティションディスク上に十分な連続領域が存在するかどうかを心配したり、使用中のディスクに fdisk してしまったり (そして、カーネルが古いパーティションテーブルと新しいほうのどちらを使っているか悩んだり)、他のパーティションを移動してスペースを作らないといけなかったりすることなく、追加と削除ができるようになります。 |
仮想パーティションにより、パーティションディスク上に十分な連続領域が存在するかどうかを心配したり、使用中のディスクに fdisk してしまったり (そして、カーネルが古いパーティションテーブルと新しいほうのどちらを使っているか悩んだり)、他のパーティションを移動してスペースを作らないといけなかったりすることなく、追加と削除ができるようになります。 |
||
37行目: | 38行目: | ||
ディスク1 (/dev/sda): |
ディスク1 (/dev/sda): |
||
+ | ┌──────────────────────────────────────────┬─────────────────────────────────────────┐ |
||
− | ┌─────────────────────────────────────┬─────────────────────────────────────┐ |
||
│ パーティション1 50 GiB (物理ボリューム) │ パーティション2 80 GiB (物理ボリューム) │ |
│ パーティション1 50 GiB (物理ボリューム) │ パーティション2 80 GiB (物理ボリューム) │ |
||
− | │ /dev/sda1 │ /dev/sda2 │ |
+ | │ /dev/sda1 │ /dev/sda2 │ |
+ | └──────────────────────────────────────────┴─────────────────────────────────────────┘ |
||
− | └─────────────────────────────────────┴─────────────────────────────────────┘ |
||
ディスク2 (/dev/sdb): |
ディスク2 (/dev/sdb): |
||
+ | ┌──────────────────────────────────────────┐ |
||
− | ┌─────────────────────────────────────┐ |
||
│ パーティション1 120 GiB (物理ボリューム) │ |
│ パーティション1 120 GiB (物理ボリューム) │ |
||
− | │ /dev/sdb1 │ |
+ | │ /dev/sdb1 │ |
+ | └──────────────────────────────────────────┘ |
||
− | └─────────────────────────────────────┘ |
||
</nowiki>}} |
</nowiki>}} |
||
54行目: | 55行目: | ||
ボリュームグループ1 (/dev/MyVolGroup/ = /dev/sda1 + /dev/sda2 + /dev/sdb1): |
ボリュームグループ1 (/dev/MyVolGroup/ = /dev/sda1 + /dev/sda2 + /dev/sdb1): |
||
┌─────────────────────────┬─────────────────────────┬──────────────────────────┐ |
┌─────────────────────────┬─────────────────────────┬──────────────────────────┐ |
||
− | │ 論理ボリューム1 15 GiB |
+ | │ 論理ボリューム1 15 GiB │ 論理ボリューム2 35 GiB │ 論理ボリューム3 200 GiB │ |
│ /dev/MyVolGroup/rootvol │ /dev/MyVolGroup/homevol │ /dev/MyVolGroup/mediavol │ |
│ /dev/MyVolGroup/rootvol │ /dev/MyVolGroup/homevol │ /dev/MyVolGroup/mediavol │ |
||
└─────────────────────────┴─────────────────────────┴──────────────────────────┘ |
└─────────────────────────┴─────────────────────────┴──────────────────────────┘ |
||
77行目: | 78行目: | ||
=== 欠点 === |
=== 欠点 === |
||
− | * システムのセットアップに追加の手順が必要で、やや複雑。 |
+ | * システムのセットアップに追加の手順が必要で、やや複雑。(複数の) デーモンを継続的に実行する必要あり。 |
− | * デュアルブートする場合、Windows は LVM をサポートしてい |
+ | * デュアルブートする場合、Windows は LVM をサポートしていないことに注意してください。Windows からは LVM パーティションにアクセスできません。サードパーティのソフトウェアによって、特定の種類の LVM セットアップをマウントできる場合があります。[https://www.paragon-software.com/home/linuxfs-windows/] |
+ | * 物理ボリュームが RAID-1、RAID-5、RAID-6 のどれにもない場合、論理ボリュームが複数の非冗長ディスクにまたがっている (あるいは、拡張されている) と、1つ以上のディスクが失われると1つまたは複数の論理ボリュームが失われる可能性があります。 |
||
+ | * 論理ボリュームマネージャによって使用されている領域 (つまり、論理ボリュームのために使用されている物理ボリューム) は (簡単には) 縮小できません。物理エクステントが物理ボリューム上に末尾まで散らばっている場合、Arch Wiki 上で提供されているスクリプトでは物理ボリュームを縮小することはできません。他のオペレーティングシステム (例: Microsoft Windows) とデュアルブートしたい場合、Microsoft Windows のために残される唯一のスペースは、LVM によって使用されない、あるいは物理ボリュームとして使用されない領域となります。 |
||
− | + | == インストール == |
|
{{pkg|lvm2}} パッケージが[[インストール]]されていることを確認してください。 |
{{pkg|lvm2}} パッケージが[[インストール]]されていることを確認してください。 |
||
− | LVM ボリュームを [[initramfs]] によってアクティブ化しない場合、({{pkg|lvm2}} によって提供される) {{ic| |
+ | LVM ボリュームを [[initramfs]] によってアクティブ化しない場合、({{pkg|lvm2}} によって提供される) {{ic|lvm2-monitor.service}} を[[有効化]]してください。 |
== ボリューム操作 == |
== ボリューム操作 == |
||
123行目: | 126行目: | ||
0 physical volume(s) resized / 1 physical volume(s) not resized |
0 physical volume(s) resized / 1 physical volume(s) not resized |
||
− | 実際 ''pvresize'' は、新しい終了位置よりも後にエクステントが割り当てられている場合、PV の縮小を拒否します。十分な空き領域があるならば、前もって [[#物理エクステントを移動 |
+ | 実際 ''pvresize'' は、新しい終了位置よりも後にエクステントが割り当てられている場合、PV の縮小を拒否します。十分な空き領域があるならば、前もって [[#物理エクステントを移動させる|pvmove]] を実行して、そのようなエクステントをボリュームグループ内の別の場所に移動させる必要があります。 |
===== 物理エクステントを移動させる ===== |
===== 物理エクステントを移動させる ===== |
||
293行目: | 296行目: | ||
{{Warning|多くの場合、ファイルシステムの拡張はオンライン (つまり、ファイルシステムがマウントされている) で行うことができます (ルートパーティションも例外ではありません)。しかし、縮小においては、ほとんどの場合、データの損失を防ぐためにファイルシステムをまずアンマウントする必要があります。対象のファイルシステムが、あなたが行おうとしていることをサポートしていることを確認してください。}} |
{{Warning|多くの場合、ファイルシステムの拡張はオンライン (つまり、ファイルシステムがマウントされている) で行うことができます (ルートパーティションも例外ではありません)。しかし、縮小においては、ほとんどの場合、データの損失を防ぐためにファイルシステムをまずアンマウントする必要があります。対象のファイルシステムが、あなたが行おうとしていることをサポートしていることを確認してください。}} |
||
− | {{Tip|論理ボリュームを [[ext4]] でフォーマットする場合、{{man|8|e2scrub}} を使えるようにするために 256 MiB 以上の空きスペースをボリュームグループに残しておいてください。}} |
+ | {{Tip|論理ボリュームを [[ext4]] でフォーマットする場合、{{man|8|e2scrub}} を使えるようにするために 256 MiB 以上の空きスペースをボリュームグループに残しておいてください。最後のボリュームを {{ic|-l 100%FREE}} で作成した後に {{ic|lvreduce -L -256M ''volume_group''/''logical_volume''}} を実行してボリュームサイズを縮小することで行うことができます。}} |
==== 論理ボリュームを作成する ==== |
==== 論理ボリュームを作成する ==== |
||
420行目: | 423行目: | ||
== スナップショット == |
== スナップショット == |
||
+ | LVM は CoW (コピーオンライト, Copy-on-Write) スナップショットをサポートしています。CoW スナップショットは初めはオリジナルデータを参照します。データブロックが上書きされた時、オリジナルコピーはそのまま残り、新しいブロックはディスク上の別の場所に書き込まれます。これには、いくつかの望ましい特性があります: |
||
− | === 説明 === |
||
+ | * データをコピーしない (ディスク上の場所を指すポインタのより小さいリストだけです) ため、スナップショットの作成が高速です。 |
||
+ | * スナップショットは、新しいデータブロック (加えて、新しいブロックを指すポインタのための無視できるほど小さい領域) を保持するのに十分な空き領域しか必要としません。例えば、(オリジナルとスナップショットの両方に) 2 GiB だけ書き込んだ 35 GiB のデータのスナップショットは 2 GiB の空き領域しか必要としません。 |
||
+ | LVM スナップショットはブロックレベルです。LVM スナップショットは、LVM ツールを扱う場合を除いて、オリジナルと明らかな関連を持たない、新しいブロックデバイスを作成します。なので、オリジナルコピー内でファイルを削除しても、スナップショット内の領域は開放されません。ファイルシステムレベルのスナップショットが必要である場合は、btrfs や ZFS、bcache が必要です。 |
||
− | LVM を使うことで伝統的なバックアップよりも効率的なシステムのスナップショットを作ることができます。COW (copy-on-write) ポリシーを使うことによって効率化を実現しています。最初に作成したスナップショットには実際のデータの inode のハードリンクだけが含まれます。データに変更が加えられない間は、スナップショットには inode ポインターしかなくデータ自体は入りません。スナップショット先のファイルやディレクトリに変更が入ると、スナップショットによって古いコピーが参照され、新しいコピーは実行中のシステムによって参照されます。このため、35GB のデータがあるシステムでも 2GB 以下しか (オリジナルとスナップショット両方に) 変更を加えない限り、スナップショットに消費する空き容量は 2GB だけです。 |
||
+ | |||
+ | {{Warning| |
||
+ | * CoW スナップショットは '''バックアップではありません'''。スナップショットはオリジナルデータの第2のコピーを作成するわけではないからです。例えば、オリジナルデータに影響するディスクセクタに損傷が発生すると、スナップショットにも影響が及びます。とはいえ、[[#バックアップ|以下]]で概要を説明しているように、バックアップを作成するために他のツールを使用するときに、スナップショットは便利かもしれません。 |
||
+ | * btrfs は、異なるファイルシステムが異なる UUID を持つことを期待します。btrfs ファイルシステムを含む LVM ボリュームのスナップショットを作成する場合、オリジナルまたはコピーの UUID を、それらをマウントする前 (及び、無関係のデーモンが ''btrfs デバイススキャン''をトリガーする場合など、カーネルから見えるようにする前) に変更するようにしてください。詳細は、[https://btrfs.wiki.kernel.org/index.php/Gotchas#Block-level_copies_of_devices btrfs wiki Gotcha's] を参照してください。 |
||
+ | }} |
||
=== 設定 === |
=== 設定 === |
||
− | スナップショットの論理ボリュームは通常の論理ボリュームと同じように作 |
+ | スナップショットの論理ボリュームは通常の論理ボリュームと同じように作成します。 |
− | # lvcreate --size 100M --snapshot --name |
+ | # lvcreate --size 100M --snapshot --name snap01vol /dev/MyVolGroup/lvol |
− | 上記のボリュームでは、スナップショットボリュームが一杯になるまで、データの 100M まで変更を加えることができます。 |
||
− | + | 上記のボリュームでは、スナップショットボリュームが一杯になるまで 100 MiB のデータを変更を加えることができます。 |
|
+ | 次のコマンドを使うことで、変更が加えられた {{ic|lvol}} 論理ボリュームを、{{ic|snap01vol}} スナップショットが作成された時の状態まで戻すことができます: |
||
− | # lvconvert --merge /dev/vg0/snap01 |
||
+ | # lvconvert --merge /dev/MyVolGroup/snap01vol |
||
− | オリジナルの論理ボリュームが使用中の場合は、次のブート時にマージされます (LiveCD からマージすることもできます)。 |
||
+ | オリジナルの論理ボリュームが使用中の場合は、次回のブート時にマージサれます (LiveCD からマージすることもできます)。 |
||
− | マージが行われるとスナップショットはもう存在しなくなります。 |
||
+ | |||
+ | {{Note|マージが行われると、そのスナップショットはもはや存在しなくなります。}} |
||
また、複数のスナップショットを作成して、それぞれを自由にオリジナルの論理ボリュームにマージすることも可能です。 |
また、複数のスナップショットを作成して、それぞれを自由にオリジナルの論理ボリュームにマージすることも可能です。 |
||
+ | === バックアップ === |
||
− | スナップショットはマウントして ''dd'' や ''tar'' を使うことでバックアップできます。''dd'' で作られるバックアップファイルのサイズはスナップショットボリュームに入っているファイルのサイズになります。 |
||
− | 復元は、スナップショットを作成してマウントして、バックアップをそこに書き込むか展開するだけです。そしてオリジナルのボリュームにマージしてください。 |
||
+ | スナップショットは、バックアップの作成のためにファイルシステムの凍結されたコピーを提供します。例えば、2時間かかったバックアップは、パーティションを直接バックアップするよりも、ファイルシステムのより一貫性のあるイメージを提供します。 |
||
− | {{ic|/etc/mkinitcpio.conf}} の MODULES 変数に ''dm_snapshot'' モジュールを入れることが必要で、これがないとシステムが起動しなくなります。インストールしたシステムに既に記述してある場合は、次のコマンドでイメージを再生成してください: |
||
− | # mkinitcpio -p linux |
||
− | スナップショット |
+ | [[dd]] や [[tar]] でスナップショットをマウントしたりバックアップしたりできます。''dd'' によって作成されたバックアップファイルのサイズは、対象のスナップショットボリューム上に存在するファイルの総サイズとなります。(バックアップから) 復元するには、スナップショットを作成し、それをマウントし、そこへバックアップを書き込むか展開してください。その後、そのスナップショットを origin にマージしてください。 |
− | バックアップ |
+ | バックアップとロールバックのために、システム起動時にルートファイルシステムのクリーンなスナップショットを自動的に作成する方法については、[[LVM によるルートファイルシステムのスナップショット]] を参照してください。 |
− | |||
− | [[Mkinitcpio|initramfs]] によって有効にならない LVM ボリュームがある場合は、{{pkg|lvm2}} パッケージに入っている ''lvm-monitoring'' サービスを[[systemd#ユニットを使う|有効化]]してください。 |
||
== 暗号化 == |
== 暗号化 == |
||
459行目: | 466行目: | ||
== キャッシュ == |
== キャッシュ == |
||
− | + | {{man|7|lvmcache}} より: |
|
− | : ''キャッシュ論理ボリュームタイプは小さくて高速な LV を使うことで巨大で鈍重な LV のパフォーマンスを改善します。頻繁に使用されるブロックを高速な LV に保存することで高速化します。LVM は小さくて高速な LV のことをキャッシュプール LV と呼び、巨大で鈍重な LV のことをオリジン LV と呼びます。dm-cache (カーネルドライバー) の要件を満たすため、LVM はキャッシュプール LV をさらに2つのデバイスに分割します。キャッシュデータ LV とキャッシュメタデータ LV です。キャッシュデータ LV にはオリジン LV のデータブロックのコピーが保存されます。キャッシュメタデータ LV にはどこにデータブロックが保存されるかを示す情報が格納されます (例: オリジン LV にあるのかあるいはキャッシュデータ LV にあるのか)。最速かつ最強のキャッシュ論理ボリュームを作成しようと考えている場合はこれらの LV をよく知る必要があります。これらの LV は全て同一の VG に入っていなければなりません。'' |
||
+ | : キャッシュ論理ボリュームタイプは小さくて高速な LV を使うことで巨大で鈍重な LV のパフォーマンスを改善します。頻繁に使用されるブロックを高速な LV に保存することで高速化します。LVM は小さくて高速な LV のことをキャッシュプール LV と呼び、巨大で鈍重な LV のことをオリジン LV と呼びます。dm-cache (カーネルドライバー) の要件を満たすため、LVM はキャッシュプール LV をさらに2つのデバイスに分割します。キャッシュデータ LV とキャッシュメタデータ LV です。キャッシュデータ LV にはオリジン LV のデータブロックのコピーが保存されます。キャッシュメタデータ LV にはどこにデータブロックが保存されるかを示す情報が格納されます (例: オリジン LV にあるのかあるいはキャッシュデータ LV にあるのか)。最速かつ最強のキャッシュ論理ボリュームを作成しようと考えている場合はこれらの LV をよく知る必要があります。これらの LV は全て同一の VG に入っていなければなりません。 |
||
− | === 作成 === |
||
+ | === キャッシュを作成する === |
||
− | 高速なディスクに PV を作成して既存のボリュームグループに追加: |
||
− | # vgextend dataVG /dev/sdx |
||
+ | 高速なディスク ({{ic|/dev/''fastdisk''}}) を PV に変換し、既存の VG ({{ic|MyVolGroup}}) に追加します: |
||
− | 自動メタデータを保存するキャッシュプールを {{ic|sdb}} に作成して、既存の論理ボリューム (dataLV) をキャッシュボリュームに変換: |
||
+ | # vgextend MyVolGroup /dev/''fastdisk'' |
||
− | # lvcreate --type cache --cachemode writethrough -L 20G -n dataLV_cachepool dataVG/dataLV /dev/sdx |
||
+ | |||
+ | {{ic|/dev/''fastdisk''}} 上に自動メタデータのあるキャッシュプールを作成し、既存の LV {{ic|MyVolGroup/rootvol}} をキャッシュボリュームに変換します、1ステップですべてできます: |
||
+ | |||
+ | # lvcreate --type cache --cachemode writethrough -l 100%FREE -n root_cachepool MyVolGroup/rootvol /dev/''fastdisk'' |
||
+ | |||
+ | {{Tip|{{ic|-l 100%FREE}} を使って PV {{ic|/dev/''fastdisk''}} の利用可能な空き領域 100% を割り当てるのではなく、{{ic|-L 20G}} を使うことでキャッシュプールに 20 GiB だけを割り当てることができます。}} |
||
+ | |||
+ | キャッシュモードには2つのオプションが利用できます: |
||
− | キャッシュを大きくしたい場合、{{ic|-L}} パラメータに指定する容量を変えてください。 |
||
− | {{Note|キャッシュモードには2つのオプションが存在します: |
||
* {{ic|writethrough}} は書き込まれたデータがキャッシュプール LV とオリジナルの LV の両方に保存されることが保証されます。キャッシュプール LV が保存されているデバイスが故障してもデータが消失することはありません。 |
* {{ic|writethrough}} は書き込まれたデータがキャッシュプール LV とオリジナルの LV の両方に保存されることが保証されます。キャッシュプール LV が保存されているデバイスが故障してもデータが消失することはありません。 |
||
* {{ic|writeback}} は高い性能を発揮しますが、キャッシュに使っているドライブが故障したときにデータを喪失する危険性があります。 |
* {{ic|writeback}} は高い性能を発揮しますが、キャッシュに使っているドライブが故障したときにデータを喪失する危険性があります。 |
||
− | {{ic|--cachemode}} を指定しなかった場合、デフォルトでは {{ic|writetrough}} が使われます。}} |
||
+ | {{ic|--cachemode}} を指定しなかった場合、デフォルトで {{ic|writethrough}} が使われます。 |
||
− | === 削除 === |
||
+ | |||
+ | === キャッシュを削除する === |
||
上記で作成したキャッシュを削除したい場合: |
上記で作成したキャッシュを削除したい場合: |
||
− | # lvconvert --uncache |
+ | # lvconvert --uncache MyVolGroup/rootvol |
+ | |||
+ | 上記のコマンドでキャッシュに留まっている書き込みが origin LV に適用され、それからキャッシュが削除されます。他のオプションについては {{man|7|lvmcache}} で説明されています。 |
||
+ | |||
+ | == RAID == |
||
+ | |||
+ | LVM は、[[RAID#実装|ソフトウェア RAID]] を作成するために使用できます。ハードウェア RAID を持っておらず、いずれにせよ LVM を使用するつもりであるならば、これは良い選択肢です。{{man|7|lvmraid}} によると: |
||
+ | : {{man|8|lvm}} RAID は、複数の物理デバイスを使用する論理ボリューム (LV) を作成して、パフォーマンスを向上させたり、デバイス障害に対する耐性を持たせたりするための1つの方法です。LVM では、それらの物理デバイスは単一のボリュームグループ (VG) 内の物理ボリューム (PV) です。 |
||
+ | |||
+ | LVM RAID は RAID 0、RAID 1、RAID 4、RAID 5、RAID 6、RAID 10 をサポートします。それぞれのレベルに関する詳細は [[Wikipedia:Standard RAID levels]] を参照してください。 |
||
+ | |||
+ | {{Warning|{{ic|lvm2}} [[mkinitcpio]] フックを使用している場合、忘れずに [[LVM に Arch Linux をインストールする#mkinitcpio を RAID 用に設定する|initramfs 内に RAID カーネルモジュールを含めてください]]。これは、ルートボリュームが LVM RAID 上にあるか無いかに関わらず、行わなくてはなりません。ブート後、''pvscan'' が、initramfs の段階でアクティブ化できなかったデバイスのアクティブ化を再試行しないためです。{{Bug|71385}} を参照してください。}} |
||
+ | |||
+ | {{Tip|[[mdadm]] も、ソフトウェア RAID を作成するために使用できます。こちらの方が、間違いなくよりシンプルで、人気で、セットアップが簡単です。}} |
||
+ | |||
+ | === RAID をセットアップする === |
||
+ | |||
+ | 物理ボリュームを作成してください: |
||
+ | |||
+ | # pvcreate /dev/sda2 /dev/sdb2 |
||
+ | |||
+ | 物理ボリューム上にボリュームグループを作成してください: |
||
+ | |||
+ | # vgcreate MyVolGroup /dev/sda2 /dev/sdb2 |
||
+ | |||
+ | {{ic|lvcreate --type ''RAIDレベル''}} を使用して論理ボリュームを作成してください。その他のオプションについては {{man|7|lvmraid}} と {{man|8|lvcreate}} を参照してください。 |
||
+ | |||
+ | # lvcreate --type RaidLevel [OPTIONS] -n Name -L Size VG [PVs] |
||
+ | |||
+ | 例: |
||
+ | |||
+ | # lvcreate --type raid1 --mirrors 1 -L 20G -n myraid1vol MyVolGroup /dev/sda2 /dev/sdb2 |
||
+ | これは、20 GiB のミラー化された、"myraid1vol" という名前の論理ボリュームを、{{ic|/dev/sda2}} と {{ic|/dev/sdb2}} の上にある VolGroup00 内に作成します。 |
||
− | 上記のコマンドでキャッシュに留まっている書き込みが LV に適用され、それからキャッシュが削除されます。他のオプションについては [http://man7.org/linux/man-pages/man7/lvmcache.7.html man] ページを参照。 |
||
== シンプロビジョニング == |
== シンプロビジョニング == |
||
+ | {{Note|シン (thin) LV のファイルシステムをマウントする際、{{ic|discard}} オプションを使うか [[fstrim]] を定期的に使用するようにしてください。ファイルが削除されたときにシン LV が縮小できるようにするためです。}} |
||
− | {{Note|When mounting a thin LV file system, always remember to use the {{ic|discard}} option or to use [[fstrim]] regularly, to allow the thin LV to shrink as files are deleted.}} |
||
− | + | {{man|7|lvmthin}} によると: |
|
+ | :標準的な {{man|8|lvm}} 論理ボリューム (LV) 内のブロックは、LV が作成されたときに割り当てられます。しかし、シンプロビジョニング LV 内のブロックは、それらのブロックが書き込まれたときに割り当てられます。そのため、シンプロビジョニング LV には仮想的なサイズが設定され、物理的に利用可能なストレージよりもさらに大きくすることができます。シンプロビジョニング LV のために提供される物理ストレージの容量は、ニーズに応じて後に拡大させることができます。 |
||
− | :Blocks in a standard {{man|8|lvm}} Logical Volume (LV) are allocated when the LV is created, but blocks in a thin provisioned LV are allocated as they are written. Because of this, a thin provisioned LV is given a virtual size, and can then be much larger than physically available storage. The amount of physical storage provided for thin provisioned LVs can be increased later as the need arises. |
||
− | === 例: 仮想 |
+ | === 例: 仮想専用サーバを立てる === |
+ | 古典的なユースケースを挙げましょう。あなたは独自の VPS サービスを開始したいと考え、初めは約100個の VPS を 930 GiB ハードドライブ搭載の1台の PC 上でホストしているとしましょう。割り当てられたストレージのすべてを実際に使用する VPS はほとんど存在しないため、各 VPS に 9 GiB を割り当てるのではなく、各 VPS に最大 30 GiB を使用できるようにし、シンプロビジョニングを使うことで各 VPS に実際に使用している量のハードドライブ領域を割り当てるようにします。930 GiB のハードドライブは {{ic|/dev/sdb}} であるとします。以下がそのセットアップです。 |
||
− | Here is the classic use case. Suppose you want to start your own VPS service, initially hosting about 100 VPSes on a single PC with a 930 GiB hard drive. Hardly any of the VPSes will actually use all of the storage they are allotted, so rather than allocate 9 GiB to each VPS, you could allow each VPS a maximum of 30 GiB and use thin provisioning to only allocate as much hard drive space to each VPS as they are actually using. Suppose the 930 GiB hard drive is {{ic|/dev/sdb}}. Here is the setup. |
||
− | + | ボリュームグループ {{ic|MyVolGroup}} を準備します。 |
|
# vgcreate MyVolGroup /dev/sdb |
# vgcreate MyVolGroup /dev/sdb |
||
+ | シンプール LV {{ic|MyThinPool}} を作成します。この LV はストレージ用のブロックを提供します。 |
||
− | Create the thin pool LV, {{ic|MyThinPool}}. This LV provides the blocks for storage. |
||
# lvcreate --type thin-pool -n MyThinPool -l 95%FREE MyVolGroup |
# lvcreate --type thin-pool -n MyThinPool -l 95%FREE MyVolGroup |
||
+ | シンプールは2つのサブボリュームから成ります: データ LV とメタデータ LV です。このコマンドは両方を自動的に作成します。しかし、いずれかが完全に一杯になると、シンプールは動作を停止してしまいます。さらに、LVM は現在、それらのボリュームの縮小をサポートしていません。これが、上記のコマンドで 5% の追加領域を用意している理由です。シンプールのデータサブボリュームかメタデータサブボリュームを拡張する必要が発生する場合に備えているのです。 |
||
− | The thin pool is composed of two sub-volumes, the data LV and the metadata LV. This command creates both automatically. But the thin pool stops working if either fills completely, and LVM currently does not support the shrinking of either of these volumes. This is why the above command allows for 5% of extra space, in case you ever need to expand the data or metadata sub-volumes of the thin pool. |
||
+ | 各 VPS に対してシン LV を作成します。これは、ユーザに対してルートパーティションとして公開されるブロックデバイスです。 |
||
− | For each VPS, create a thin LV. This is the block device exposed to the user for their root partition. |
||
# lvcreate -n SomeClientsRoot -V 30G --thinpool MyThinPool MyVolGroup |
# lvcreate -n SomeClientsRoot -V 30G --thinpool MyThinPool MyVolGroup |
||
− | + | そのブロックデバイス {{ic|/dev/MyVolGroup/SomeClientsRoot}} は、ルートパーティションとして [[VirtualBox]] が使用することができます。 |
|
==== シンスナップショットを使用してスペースを節約する ==== |
==== シンスナップショットを使用してスペースを節約する ==== |
||
− | + | シンスナップショットは、それ自体がシン LV なので、通常のスナップショットよりも遥かに強力です。シンスナップショットが持つ長所の完全なリストは Red Hat のガイド [https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/9/html-single/configuring_and_managing_logical_volumes/index#creating-and-managing-thinly-provisioned-volumes_configuring-and-managing-logical-volumes] を参照してください。 |
|
+ | VPS が作成されるたびに Linux をゼロからインストールするのではなく、基本的な Linux 環境が含まれるただ1つのシン LV から始める方が容量を効率的に使用できます: |
||
− | Instead of installing Linux from scratch every time a VPS is created, it is more space-efficient to start with just one thin LV containing a basic installation of Linux: |
||
# lvcreate -n GenericRoot -V 30G --thinpool MyThinPool MyVolGroup |
# lvcreate -n GenericRoot -V 30G --thinpool MyThinPool MyVolGroup |
||
− | *** |
+ | *** /dev/MyVolGroup/GenericRoot に Linux をインストール *** |
+ | そして、各 VPS に対してその LV のスナップショットを作成します: |
||
− | Then create snapshots of it for each VPS: |
||
# lvcreate -s MyVolGroup/GenericRoot -n SomeClientsRoot |
# lvcreate -s MyVolGroup/GenericRoot -n SomeClientsRoot |
||
+ | このように、シンプールには (少なくとも最初は) 全 VPS に対して共通のデータのコピーがただ1つだけ存在します。追加の利点として、新しい VPS の作成が瞬時に行われます。 |
||
− | This way, in the thin pool there is only one copy the data common to all VPSes, at least initially. As an added bonus, the creation of a new VPS is instantaneous. |
||
+ | これらはシンスナップショットであるため、{{ic|GenericRoot}} への1回の書き込み操作において COW 操作は、スナップショット毎に1回ではなく、合計で1回しか行われません。これにより、{{ic|GenericRoot}} の更新は、各 VPS が通常のスナップショットである場合よりも効率的なります。 |
||
− | Since these are thin snapshots, a write operation to {{ic|GenericRoot}} only causes one COW operation in total, instead of one COW operation per snapshot. This allows you to update {{ic|GenericRoot}} more efficiently than if each VPS were a regular snapshot. |
||
=== 例: ゼロダウンタイムでストレージをアップグレードする === |
=== 例: ゼロダウンタイムでストレージをアップグレードする === |
||
+ | VPS のホスティング以外にもシンプロビジョニングの活用法は存在します。シンプロビジョニングを使用して、すでにマウントされているファイルシステムをアンマウントすることなく、その実効容量を増やす方法を紹介しましょう。ここでは (再び)、サーバに1台の 930 GiB ハードドライブが搭載されていると仮定します。環境は VPS ホスティングのときと同じですが、シン LV が1つしかなく、LV のサイズはシンプールのサイズよりも遥かに大きいとします。 |
||
− | There are applications of thin provisioning outside of VPS hosting. Here is how you may use it to grow the effective capacity of an already-mounted file system without having to unmount it. Suppose, again, that the server has a single 930 GiB hard drive. The setup is the same as for VPS hosting, only there is only one thin LV and the LV's size is far larger than the thin pool's size. |
||
# lvcreate -n MyThinLV -V 16T --thinpool MyThinPool MyVolGroup |
# lvcreate -n MyThinLV -V 16T --thinpool MyThinPool MyVolGroup |
||
+ | この追加の仮想領域は、シンプールを拡張することで後に実際のストレージで埋めることができます。 |
||
− | This extra virtual space can be filled in with actual storage at a later time by extending the thin pool. |
||
+ | しばらくして、ストレージのアップグレードが必要になり、新しいハードドライブ {{ic|/dev/sdc}} がサーバに接続されたとします。シンプールの容量をアップグレードするには、新しいハードドライブを VG に追加します: |
||
− | Suppose some time later, a storage upgrade is needed, and a new hard drive, {{ic|/dev/sdc}}, is plugged into the server. To upgrade the thin pool's capacity, add the new hard drive to the VG: |
||
# vgextend MyVolGroup /dev/sdc |
# vgextend MyVolGroup /dev/sdc |
||
+ | 次に、シンプールを拡張します: |
||
− | Now, extend the thin pool: |
||
# lvextend -l +95%FREE MyVolGroup/MyThinPool |
# lvextend -l +95%FREE MyVolGroup/MyThinPool |
||
+ | このシン LV のサイズは 16 TiB なので、最終的にファイルシステムをアンマウントしてサイズ変更するはめになるまでに、さらに 15.09 TiB のハードドライブ領域を追加できます。 |
||
− | Since this thin LV's size is 16 TiB, you could add another 15.09 TiB of hard drive space before finally having to unmount and resize the file system. |
||
+ | {{Note|アプリケーションが実際に存在する以上の物理ストレージを使用しないようにするために、[[Ext4#予約ブロック|予約ブロック]]や[[ディスククォータ]]を使うべきかもしれません。}} |
||
− | {{Note|You will probably want to use [[Ext4#Reserved blocks|reserved blocks]] or a [[disk quota]] to prevent applications from attempting to use more physical storage than there actually is.}} |
||
== トラブルシューティング == |
== トラブルシューティング == |
||
− | |||
− | === Arch-Linux のデフォルトの変更のためにする必要がある変更 === |
||
− | |||
− | {{ic|/etc/lvm/lvm.conf}} には {{ic|1=use_lvmetad = 1}} を設定する必要があります。現在はデフォルトで設定されています。{{ic|lvm.conf.pacnew}} ファイルがある場合は、この変更を適用してください。 |
||
=== LVM コマンドが機能しない === |
=== LVM コマンドが機能しない === |
||
* 適切なモジュールをロードしてください: |
* 適切なモジュールをロードしてください: |
||
+ | |||
# modprobe dm_mod |
# modprobe dm_mod |
||
− | {{ic|dm_mod}} モジュールは自動的にロードされるはずです。そうならない場合は、 |
+ | {{ic|dm_mod}} モジュールは自動的にロードされるはずです。そうならない場合は、明示的に[[カーネルモジュール#モジュールの自動ロード|モジュールを起動時にロードするようにしてください]]。 |
+ | * ''lvm'' コマンドを次のように試してみてください: |
||
− | {{hc|/etc/mkinitcpio.conf:|<nowiki>MODULES="dm_mod ..."</nowiki>}} |
||
− | 変更を適用するには initramfs を[[Mkinitcpio#イメージ作成とアクティベーション|再生成]]する必要があります。 |
||
− | |||
− | * ''lvm'' コマンドを次のように試してみて下さい: |
||
# lvm pvdisplay |
# lvm pvdisplay |
||
580行目: | 617行目: | ||
症状: |
症状: |
||
+ | |||
− | # vgscan |
||
+ | {{hc|# vgscan| |
||
Reading all physical volumes. This may take a while... |
Reading all physical volumes. This may take a while... |
||
/dev/backupdrive1/backup: read failed after 0 of 4096 at 319836585984: Input/output error |
/dev/backupdrive1/backup: read failed after 0 of 4096 at 319836585984: Input/output error |
||
588行目: | 626行目: | ||
Found volume group "backupdrive1" using metadata type lvm2 |
Found volume group "backupdrive1" using metadata type lvm2 |
||
Found volume group "networkdrive" using metadata type lvm2 |
Found volume group "networkdrive" using metadata type lvm2 |
||
+ | }} |
||
+ | 病因: 最初にボリュームグループを無効にしないで外付けの LVM ドライブを取り外したこと。切断する前に、次を実行するようにしましょう: |
||
− | 病因: |
||
+ | |||
− | :最初にボリュームグループを無効にしないで外付けの LVM ドライブを取り外したこと。切断する前に、次を実行するようにしましょう: |
||
− | # vgchange -an '' |
+ | # vgchange -an ''ボリュームグループ名'' |
+ | |||
+ | 修復: あなたがすでに {{ic|vgchange -ay ''vg''}} でそのボリュームグループのアクティブ化を試み、先の Input/output エラーを見たと仮定します: |
||
+ | |||
+ | # vgchange -an ''ボリュームグループ名'' |
||
+ | |||
+ | 外部ドライブを取り外し、数分待ってください。 |
||
− | 治療: |
||
− | :外部ドライブのプラグを抜いて数分待って下さい: |
||
# vgscan |
# vgscan |
||
− | # vgchange -ay '' |
+ | # vgchange -ay ''ボリュームグループ名'' |
+ | |||
+ | ==== LVM とリムーバブルメディアでサスペンド/復帰 ==== |
||
+ | |||
+ | {{Accuracy|提供されている解決策は、LUKS on LVM などの複雑なセットアップでは機能しません。}} |
||
+ | |||
+ | LVM をリムーバブルメディア (外部 USB ドライブなど) で正常に動作させるには、外部ドライブのボリュームグループをサスペンド前に非アクティブ化させる必要があります。これが行われないと、(復帰後に) dm デバイスでバッファ I/O エラーが発生する場合があります。この理由により、外部ドライブと内部ドライブを同じボリュームグループ内に混在させることは推奨されません。 |
||
+ | |||
+ | 外部 USB ドライブのあるボリュームグループを自動的に非アクティブ化するには、以下の方法でそれぞれのボリュームグループに {{ic|sleep_umount}} タグを付けてください: |
||
+ | |||
+ | # vgchange --addtag sleep_umount ''外部ボリュームグループ'' |
||
+ | |||
+ | このタグを設定したら、systemd の以下のユニットファイルを使用して、サスペンド前にボリュームを適切に非アクティブ化します。復帰時には、それらのボリュームは LVM によって自動的にアクティブ化されます。 |
||
+ | |||
+ | {{hc|/etc/systemd/system/ext_usb_vg_deactivate.service|2= |
||
+ | [Unit] |
||
+ | Description=Deactivate external USB volume groups on suspend |
||
+ | Before=sleep.target |
||
+ | |||
+ | [Service] |
||
+ | Type=oneshot |
||
+ | ExecStart=-/etc/systemd/system/deactivate_sleep_vgs.sh |
||
+ | |||
+ | [Install] |
||
+ | WantedBy=sleep.target |
||
+ | }} |
||
+ | |||
+ | あと以下のスクリプトです: |
||
+ | |||
+ | {{hc|/etc/systemd/system/deactivate_sleep_vgs.sh|2= |
||
+ | #!/bin/sh |
||
+ | |||
+ | TAG=@sleep_umount |
||
+ | vgs=$(vgs --noheadings -o vg_name $TAG) |
||
+ | |||
+ | echo "Deactivating volume groups with $TAG tag: $vgs" |
||
+ | |||
+ | # $TAG タグのあるボリュームグループに属する論理ボリュームをアンマウントします |
||
+ | for vg in $vgs; do |
||
+ | for lv_dev_path in $(lvs --noheadings -o lv_path -S lv_active=active,vg_name=$vg); do |
||
+ | echo "Unmounting logical volume $lv_dev_path" |
||
+ | umount $lv_dev_path |
||
+ | done |
||
+ | done |
||
+ | |||
+ | # sleep_umount でタグ付けされたボリュームグループを非アクティブ化します |
||
+ | for vg in $vgs; do |
||
+ | echo "Deactivating volume group $vg" |
||
+ | vgchange -an $vg |
||
+ | done |
||
+ | }} |
||
+ | |||
+ | 最後に、そのユニットを[[有効化]]してください。 |
||
=== 連続している論理ボリュームのサイズ変更に失敗する === |
=== 連続している論理ボリュームのサイズ変更に失敗する === |
||
− | 論理ボリュームを拡張すると以下のエラーが表示される場合: |
+ | 論理ボリュームを拡張しようとすると以下のエラーが表示される場合: |
+ | |||
" Insufficient suitable contiguous allocatable extents for logical volume " |
" Insufficient suitable contiguous allocatable extents for logical volume " |
||
− | 明示的に連続するように割り当てるポリシー (オプション {{ic|-C y}} または {{ic|--alloc contiguous}}) を使って論理ボリュームが作成されており、ボリュームの近隣に連続したエクステントが存在しないのが原因です |
+ | 明示的に連続するように割り当てるポリシー (オプション {{ic|-C y}} または {{ic|--alloc contiguous}}) を使って論理ボリュームが作成されており、ボリュームの近隣に連続したエクステントが存在しないのが原因です。[https://hostatic.ro/lvm-inherit-and-contiguous-policies/] |
− | この問題を修正するには、論理ボリュームを拡張する前に、{{ic|lvchange --alloc inherit |
+ | この問題を修正するには、論理ボリュームを拡張する前に、{{ic|lvchange --alloc inherit ''論理ボリューム''}} で割り当てポリシーを変更してください。連続割り当てポリシーを使い続ける必要がある場合、空きエクステントが十分存在するディスク領域にボリュームを移動してください。[https://superuser.com/questions/435075/how-to-align-logical-volumes-on-contiguous-physical-extents] を参照。 |
=== "grub-mkconfig" コマンドで "unknown filesystem" エラーが発生する === |
=== "grub-mkconfig" コマンドで "unknown filesystem" エラーが発生する === |
||
− | + | [[GRUB#メイン設定ファイルの生成|grub.cfg を生成する]]前にスナップショットボリュームは削除するようにしてください。 |
|
=== シンプロビジョニングボリュームに root を配置する場合にタイムアウトが発生する === |
=== シンプロビジョニングボリュームに root を配置する場合にタイムアウトが発生する === |
||
− | 大量のスナップショットを使用した場合、{{ |
+ | 大量のスナップショットを使用した場合、{{ic|thin_check}} の実行時間が長くなるためルートデバイスがタイムアウトしてしまうことがあります。そのためブートローダーの設定に {{ic|1=rootdelay=60}} カーネルブートパラメータを追加してください。あるいは、{{ic|thin_check}} によるブロックマップのチェックをスキップし ([https://www.redhat.com/archives/linux-lvm/2016-January/msg00010.html] を参照) [[Initramfs を再生成する|Initramfs を再生成してください]]: |
+ | |||
+ | {{hc|/etc/lvm/lvm.conf| |
||
+ | 2=thin_check_options = [ "-q", "--clear-needs-check-flag", "--skip-mappings" ] |
||
+ | }} |
||
=== シャットダウンが遅くなる === |
=== シャットダウンが遅くなる === |
||
− | RAIDやスナップショット、シンプロビジョニング |
+ | RAIDやスナップショット、シンプロビジョニングを使用していてシャットダウンが遅くなる場合、{{ic|lvm2-monitor.service}} が[[起動]]していることを確認してください。{{Bug|50420}} を参照。 |
+ | |||
+ | === シンプロビジョニングされたスワップボリューム上にハイバネートする === |
||
+ | |||
+ | [[サスペンドとハイバネート#thinly-provisioned LVM ボリュームへのハイバネーション]] を参照してください。 |
||
== 参照 == |
== 参照 == |
||
625行目: | 729行目: | ||
* [https://access.redhat.com/documentation/ja-jp/red_hat_enterprise_linux/9/html-single/configuring_and_managing_logical_volumes/index Red Hat Enterprise 9: 論理ボリュームの設定および管理] |
* [https://access.redhat.com/documentation/ja-jp/red_hat_enterprise_linux/9/html-single/configuring_and_managing_logical_volumes/index Red Hat Enterprise 9: 論理ボリュームの設定および管理] |
||
* [https://www.tutonics.com/2012/11/ubuntu-lvm-guide-part-1.html Ubuntu LVM Guide Part 1][https://www.tutonics.com/2012/12/lvm-guide-part-2-snapshots.html Part 2 details snapshots] |
* [https://www.tutonics.com/2012/11/ubuntu-lvm-guide-part-1.html Ubuntu LVM Guide Part 1][https://www.tutonics.com/2012/12/lvm-guide-part-2-snapshots.html Part 2 details snapshots] |
||
+ | |||
+ | {{TranslationStatus|LVM|2023-04-29|776399}} |
2024年7月26日 (金) 15:28時点における最新版
関連記事
Wikipedia より:
- 論理ボリュームマネージャ (Logical Volume Manager, LVM) とは、Linux カーネルに論理ボリューム管理を提供するデバイスマッパーフレームワークです。
目次
背景
LVM の構成要素
Logical Volume Management は Linux カーネルの device-mapper 機能を利用して、基底のディスクレイアウトから独立したパーティションのシステムを提供します。LVM を使うことでストレージを抽象化し「仮想的なパーティション」を作成して、拡張/縮小を容易にします (ファイルシステムの制限を受ける可能性はあります)。
仮想パーティションにより、パーティションディスク上に十分な連続領域が存在するかどうかを心配したり、使用中のディスクに fdisk してしまったり (そして、カーネルが古いパーティションテーブルと新しいほうのどちらを使っているか悩んだり)、他のパーティションを移動してスペースを作らないといけなかったりすることなく、追加と削除ができるようになります。
LVM の基本的構成要素:
- 物理ボリューム (Physical Volume, PV)
- LVM によって利用可能な Unix ブロックデバイスノード。例: ハードディスク、MBR か GPT のパーティション、ループバックファイル、デバイスマッパーデバイス (例: dm-crypt)。PV は LVM のヘッダをホストします。
- ボリュームグループ (Volume Group, VG)
- LV のコンテナとして機能する、PV の集まり。VG から PE を割り当てて LV を構成します。
- 論理ボリューム (Logical Volume, LV)
- VG 内に存在する「仮想/論理パーティション」であり、PE で構成されます。LV は、物理パーティションに似た Unix ブロックデバイスです。例えば、LV はファイルシステムで直接フォーマットできます。
- 物理エクステント (Physical Extent, PE)
- LV に割り当てることのできる、PV 内の最小の連続するエクステント (範囲) です。PE は、任意の LV に割り当てることのできる、PV のパーツだと考えてください。
例:
物理ディスク ディスク1 (/dev/sda): ┌──────────────────────────────────────────┬─────────────────────────────────────────┐ │ パーティション1 50 GiB (物理ボリューム) │ パーティション2 80 GiB (物理ボリューム) │ │ /dev/sda1 │ /dev/sda2 │ └──────────────────────────────────────────┴─────────────────────────────────────────┘ ディスク2 (/dev/sdb): ┌──────────────────────────────────────────┐ │ パーティション1 120 GiB (物理ボリューム) │ │ /dev/sdb1 │ └──────────────────────────────────────────┘
LVM 論理ボリューム ボリュームグループ1 (/dev/MyVolGroup/ = /dev/sda1 + /dev/sda2 + /dev/sdb1): ┌─────────────────────────┬─────────────────────────┬──────────────────────────┐ │ 論理ボリューム1 15 GiB │ 論理ボリューム2 35 GiB │ 論理ボリューム3 200 GiB │ │ /dev/MyVolGroup/rootvol │ /dev/MyVolGroup/homevol │ /dev/MyVolGroup/mediavol │ └─────────────────────────┴─────────────────────────┴──────────────────────────┘
利点
LVM には、通常のハードドライブのパーティションをただ使うよりも幅広い柔軟性があります:
- 多数のディスクを一つの大きなディスクとして使えます。
- 複数のディスクにまたがる論理ボリュームを作れます。
- 小さな論理ボリュームを作成し、満杯になったら"動的に"リサイズできます。
- ディスクの順番と関係なく論理ボリュームをリサイズできます。VG における LV の位置に依存しないので、周辺に空き容量を取る必要がありません。
- オンラインで論理・物理ボリュームをリサイズ・作成・削除できます。ボリューム上のファイルシステムもリサイズする必要がありますが、オンラインリサイズをサポートしているファイルシステムもあります (ext4 など)。
- サービスによって使われている LV を、サービスを再起動する必要なく他のディスクへオンラインで移行することができます。
- スナップショットを使うことでファイルシステムのフローズンコピーをバックアップすることができます。サービスを落とす時間を最小限にできます。
- 起動時にキーを複数回入力することなく、個別のボリュームをアンロック (LUKS 上に LVM を作成)。
- 頻繁に使用されるデータをキャッシュする組み込みサポート (lvmcache(7))。
欠点
- システムのセットアップに追加の手順が必要で、やや複雑。(複数の) デーモンを継続的に実行する必要あり。
- デュアルブートする場合、Windows は LVM をサポートしていないことに注意してください。Windows からは LVM パーティションにアクセスできません。サードパーティのソフトウェアによって、特定の種類の LVM セットアップをマウントできる場合があります。[1]
- 物理ボリュームが RAID-1、RAID-5、RAID-6 のどれにもない場合、論理ボリュームが複数の非冗長ディスクにまたがっている (あるいは、拡張されている) と、1つ以上のディスクが失われると1つまたは複数の論理ボリュームが失われる可能性があります。
- 論理ボリュームマネージャによって使用されている領域 (つまり、論理ボリュームのために使用されている物理ボリューム) は (簡単には) 縮小できません。物理エクステントが物理ボリューム上に末尾まで散らばっている場合、Arch Wiki 上で提供されているスクリプトでは物理ボリュームを縮小することはできません。他のオペレーティングシステム (例: Microsoft Windows) とデュアルブートしたい場合、Microsoft Windows のために残される唯一のスペースは、LVM によって使用されない、あるいは物理ボリュームとして使用されない領域となります。
インストール
lvm2 パッケージがインストールされていることを確認してください。
LVM ボリュームを initramfs によってアクティブ化しない場合、(lvm2 によって提供される) lvm2-monitor.service
を有効化してください。
ボリューム操作
物理ボリューム
作成
/dev/sda1
上に PV (物理ボリューム) を作成するには:
# pvcreate /dev/sda1
PV が作成されたかどうかは、以下のコマンドを使って確認できます:
# pvs
拡張
物理ボリュームのあるデバイスのサイズを増やした後、または減らす前に、pvresize(8) を使って PV を拡大/縮小する必要があります。
パーティションを大きくした後に /dev/sda1
上の PV を拡張するには、以下を実行します:
# pvresize /dev/sda1
これは、自動的にデバイスのサイズを検出し、最大まで PV を拡張します。
縮小
基底となるデバイスを縮小する前に物理ボリュームを縮小するには、パラメータ --setphysicalvolumesize サイズ
を先のコマンドに追加してください。例えば:
# pvresize --setphysicalvolumesize 40G /dev/sda1
上記のコマンドは以下のエラーを出力する場合があります:
/dev/sda1: cannot resize to 25599 extents as later ones are allocated. 0 physical volume(s) resized / 1 physical volume(s) not resized
実際 pvresize は、新しい終了位置よりも後にエクステントが割り当てられている場合、PV の縮小を拒否します。十分な空き領域があるならば、前もって pvmove を実行して、そのようなエクステントをボリュームグループ内の別の場所に移動させる必要があります。
物理エクステントを移動させる
空きエクステントをボリュームの末尾に移動させる前に、pvdisplay -v -m
を実行して物理セグメントを確認しなければなりません。以下の例では、1つの物理ボリュームが /dev/sdd1
上に存在し、1つのボリュームグループ vg1
と1つの論理ボリューム backup
が存在しています。
# pvdisplay -v -m
Finding all volume groups. Using physical volume(s) on command line. --- Physical volume --- PV Name /dev/sdd1 VG Name vg1 PV Size 1.52 TiB / not usable 1.97 MiB Allocatable yes PE Size 4.00 MiB Total PE 399669 Free PE 153600 Allocated PE 246069 PV UUID MR9J0X-zQB4-wi3k-EnaV-5ksf-hN1P-Jkm5mW --- Physical Segments --- Physical extent 0 to 153600: FREE Physical extent 153601 to 307199: Logical volume /dev/vg1/backup Logical extents 1 to 153599 Physical extent 307200 to 307200: FREE Physical extent 307201 to 399668: Logical volume /dev/vg1/backup Logical extents 153601 to 246068
FREE
な領域がボリュームを跨いで分かれて存在していることがわかります。物理ボリュームを縮小させるには、まず、すべての使用中セグメントを先頭に移動させなければなりません。
ここで、最初の空きセグメントは 0 から 153600 にあり、153601 の空きエクステントが存在しています。この状態では、このセグメント番号を最後の物理エクステントから最初のエクステントに移動させることができます。なので、コマンドは以下のようになります:
# pvmove --alloc anywhere /dev/sdd1:307201-399668 /dev/sdd1:0-92467
/dev/sdd1: Moved: 0.1 % /dev/sdd1: Moved: 0.2 % ... /dev/sdd1: Moved: 99.9 % /dev/sdd1: Moved: 100.0 %
物理ボリュームのサイズを変更する
すべての空き物理セグメントを最後の物理エクステント上に移動したら、vgdisplay
を root 権限で実行して空き PE を確認してください。
そうしたら、先のあのコマンドを再び実行できます:
# pvresize --setphysicalvolumesize サイズ 物理ボリューム
結果を確認しましょう:
# pvs
PV VG Fmt Attr PSize PFree /dev/sdd1 vg1 lvm2 a-- 1t 500g
パーティションのサイズを変更する
最後に、お気に入りのパーティショニングツールを使ってパーティションを縮小させる必要があります。
ボリュームグループ
ボリュームグループを作成する
PV /dev/sdb1
を持つ VG (ボリュームグループ) MyVolGroup
を作成するには、以下を実行してください:
# vgcreate MyVolGroup /dev/sdb1
以下のコマンドを使うことで VG MyVolGroup
が作成されたことを確認できます:
# vgs
VG の作成時に以下のようにすることで複数の PV をバインドすることができます:
# vgcreate MyVolGroup /dev/sdb1 /dev/sdb2
ボリュームグループをアクティブ化する
# vgchange -a y MyVolGroup
デフォルトでは、これにより該当するボリュームグループが再アクティブ化されます。例えば、仮にミラーでドライブ障害が発生し、そのドライブを交換したとすると、(1) pvcreate
、(2) vgextend
、(3) vgreduce --removemissing --force
を実行するでしょう。
ボリュームグループを修復する
この例での破損したミラーアレイの再ビルドプロセスを開始するには、以下を実行します:
# lvconvert --repair /dev/MyVolGroup/mirror
以下で再ビルドプロセスをモニタリングできます (Cpy%Sync 列の出力):
# lvs -a -o +devices
ボリュームグループを非アクティブ化する
以下を実行してください:
# vgchange -a n MyVolGroup
これは、ボリュームグループを非アクティブ化し、その VG を格納しているコンテナをアンマウントできるようにします。
ボリュームグループの名前を変更する
既存のボリュームグループの名前を変更するには vgrename(8) コマンドを使用してください。
次のいずれかのコマンドにより、既存のボリュームグループ MyVolGroup
を my_volume_group
に名称変更します:
# vgrename /dev/MyVolGroup /dev/my_volume_group
# vgrename MyVolGroup my_volume_group
名前を変更したボリュームグループを参照している設定ファイル (例: /etc/fstab
、/etc/crypttab
) をすべてアップデートすることを忘れないでください。
ボリュームグループに物理ボリュームを追加する
まず、使用したいブロックデバイス上に新しい物理ボリュームを作成し、ボリュームグループを拡張します:
# pvcreate /dev/sdb1 # vgextend MyVolGroup /dev/sdb1
これにより、ボリュームグループ上の物理エクステントの合計数が増加し、論理ボリュームによって割り当てられることが可能です。
ボリュームグループからパーティションを削除する
論理ボリュームがパーティション上に存在している場合、まずその論理ボリュームを削除してください。
そのパーティション上にあるすべてのデータを他のパーティションに移動する必要があります。幸い、LVM ではこれを簡単に行えます:
# pvmove /dev/sdb1
特定の物理ボリューム上にデータを移したい場合は、pvmove
の第2引数でそれを指定してください:
# pvmove /dev/sdb1 /dev/sdf1
次に、物理ボリュームをボリュームグループから削除する必要があります:
# vgreduce MyVolGroup /dev/sdb1
または、空の物理ボリュームをすべて削除します:
# vgreduce --all MyVolGroup
例: 削除されたか障害が発生しているため見つけることのできない、グループ内の不良ディスクがある場合:
# vgreduce --removemissing --force MyVolGroup
最後に、そのパーティションを他の目的のために使用したい場合で、かつ LVM がそのパーティションを物理ボリュームであると認識させたくない場合:
# pvremove /dev/sdb1
論理ボリューム
論理ボリュームを作成する
ボリュームグループ MyVolGroup
に容量 300 GiB の論理ボリューム homevol
を作成するには、以下を実行してください:
# lvcreate -L 300G MyVolGroup -n homevol
あるいは、ボリュームグループ MyVolGroup
に論理ボリューム homevol
を、容量の残りすべてを使って作成するには、次を実行してください:
# lvcreate -l 100%FREE MyVolGroup -n homevol
新しい LV が /dev/MyVolGroup/homevol
として現れます。これで、LV を適切なファイルシステムでフォーマットできます。
以下のコマンドで、LV が作成されたことを確認できます:
# lvs
論理ボリュームの名前を変更する
既存の論理ボリュームの名前を変更するには、lvrename(8) コマンドを使用してください。
次のいずれかのコマンドにより、ボリュームグループ MyVolGroup
内の論理ボリューム old_vol
を new_vol
に名称変更します:
# lvrename /dev/MyVolGroup/old_vol /dev/MyVolGroup/new_vol
# lvrename MyVolGroup old_vol new_vol
名前を変更した論理ボリュームを参照している設定ファイル (例: /etc/fstab、/etc/crypttab) をすべてアップデートすることを忘れないでください。
論理ボリュームとファイルシステムのサイズを一度に変更する
MyVolGroup
内の論理ボリューム mediavol
を 10 GiB だけ増やし、ファイルシステムも 同時に リサイズします:
# lvresize -L +10G --resizefs MyVolGroup/mediavol
MyVolGroup
内の論理ボリューム mediavol
のサイズを 15 GiB に設定し、ファイルシステムも 同時に リサイズします:
# lvresize -L 15G --resizefs MyVolGroup/mediavol
ボリュームグループ上の空き領域をすべて埋めたい場合、次のコマンドを使用してください:
# lvresize -l +100%FREE --resizefs MyVolGroup/mediavol
更に詳細なオプションは lvresize(8) を参照してください。
論理ボリュームとファイルシステムのサイズを別々に変更する
fsadm(8) によってサポートされていないファイルシステムの場合、論理ボリュームを縮小する前、または拡張した後に、適切なユーティリティを使ってそのファイルシステムをリサイズする必要があります。
ファイルシステムに触れずに、ボリュームグループ MyVolGroup
内の論理ボリューム mediavol
を 2 GiB だけ増やすには:
# lvresize -L +2G MyVolGroup/mediavol
そして、ファイルシステム (この例では ext4) を論理ボリュームの最大サイズまで拡張してください:
# resize2fs /dev/MyVolGroup/mediavol
MyVolGroup
内の論理ボリューム mediavol
のサイズを 500 MiB だけ減らすには、まず最終的なファイルシステムサイズを計算し、ファイルシステム (この例では ext4) をその新しいサイズに縮小します:。
# resize2fs /dev/MyVolGroup/mediavol NewSize
ファイルシステムが縮小したら、論理ボリュームのサイズも縮小してください:
# lvresize -L -500M MyVolGroup/mediavol
ext2、ext3、ext4 ファイルシステムの場合の正確な論理ボリュームサイズを計算するには、このシンプルな計算式をしようしてください: LVM_EXTENTS = FS_BLOCKS × FS_BLOCKSIZE ÷ LVM_EXTENTSIZE
。
# tune2fs -l /dev/MyVolGroup/mediavol | grep Block
Block count: 102400000 Block size: 4096 Blocks per group: 32768
# vgdisplay MyVolGroup | grep "PE Size"
PE Size 4.00 MiB
102400000 blocks × 4096 bytes/block ÷ 4 MiB/extent = 100000 extents
--resizefs
を渡せば、正しいことを確認できます。
# lvreduce -l 100000 --resizefs /dev/MyVolGroup/mediavol
... The filesystem is already 102400000 (4k) blocks long. Nothing to do! ... Logical volume sysvg/root successfully resized.
更に詳細なオプションは lvresize(8) を参照してください。
論理ボリュームを削除する
まず、削除したい論理ボリュームの名前を調べてください。以下のコマンドですべての論理ボリュームのリストを得られます:
# lvs
次に、選択した論理ボリュームのマウントポイントを探してください:
$ lsblk
そうしたら、論理ボリューム上のファイルシステムをアンマウントしてください:
# umount /マウントポイント
最後に、論理ボリュームを削除してください:
# lvremove ボリュームグループ/論理ボリューム
例えば:
# lvremove MyVolGroup/homevol
y
を押して、確定してください。
削除した論理ボリュームを参照しているすべての設定ファイル (例: /etc/fstab
、/etc/crypttab
) を更新することを忘れないでください。
lvs
を root として実行することで、論理ボリュームが削除されたことを確認できます (このセクションの最初のステップを参照)。
スナップショット
LVM は CoW (コピーオンライト, Copy-on-Write) スナップショットをサポートしています。CoW スナップショットは初めはオリジナルデータを参照します。データブロックが上書きされた時、オリジナルコピーはそのまま残り、新しいブロックはディスク上の別の場所に書き込まれます。これには、いくつかの望ましい特性があります:
- データをコピーしない (ディスク上の場所を指すポインタのより小さいリストだけです) ため、スナップショットの作成が高速です。
- スナップショットは、新しいデータブロック (加えて、新しいブロックを指すポインタのための無視できるほど小さい領域) を保持するのに十分な空き領域しか必要としません。例えば、(オリジナルとスナップショットの両方に) 2 GiB だけ書き込んだ 35 GiB のデータのスナップショットは 2 GiB の空き領域しか必要としません。
LVM スナップショットはブロックレベルです。LVM スナップショットは、LVM ツールを扱う場合を除いて、オリジナルと明らかな関連を持たない、新しいブロックデバイスを作成します。なので、オリジナルコピー内でファイルを削除しても、スナップショット内の領域は開放されません。ファイルシステムレベルのスナップショットが必要である場合は、btrfs や ZFS、bcache が必要です。
設定
スナップショットの論理ボリュームは通常の論理ボリュームと同じように作成します。
# lvcreate --size 100M --snapshot --name snap01vol /dev/MyVolGroup/lvol
上記のボリュームでは、スナップショットボリュームが一杯になるまで 100 MiB のデータを変更を加えることができます。
次のコマンドを使うことで、変更が加えられた lvol
論理ボリュームを、snap01vol
スナップショットが作成された時の状態まで戻すことができます:
# lvconvert --merge /dev/MyVolGroup/snap01vol
オリジナルの論理ボリュームが使用中の場合は、次回のブート時にマージサれます (LiveCD からマージすることもできます)。
また、複数のスナップショットを作成して、それぞれを自由にオリジナルの論理ボリュームにマージすることも可能です。
バックアップ
スナップショットは、バックアップの作成のためにファイルシステムの凍結されたコピーを提供します。例えば、2時間かかったバックアップは、パーティションを直接バックアップするよりも、ファイルシステムのより一貫性のあるイメージを提供します。
dd や tar でスナップショットをマウントしたりバックアップしたりできます。dd によって作成されたバックアップファイルのサイズは、対象のスナップショットボリューム上に存在するファイルの総サイズとなります。(バックアップから) 復元するには、スナップショットを作成し、それをマウントし、そこへバックアップを書き込むか展開してください。その後、そのスナップショットを origin にマージしてください。
バックアップとロールバックのために、システム起動時にルートファイルシステムのクリーンなスナップショットを自動的に作成する方法については、LVM によるルートファイルシステムのスナップショット を参照してください。
暗号化
LUKS と LVM の組み合わせの可能なスキームについては、dm-crypt/システム全体の暗号化#LUKS on LVM と dm-crypt/システム全体の暗号化#LVM on LUKS を参照してください。
キャッシュ
lvmcache(7) より:
- キャッシュ論理ボリュームタイプは小さくて高速な LV を使うことで巨大で鈍重な LV のパフォーマンスを改善します。頻繁に使用されるブロックを高速な LV に保存することで高速化します。LVM は小さくて高速な LV のことをキャッシュプール LV と呼び、巨大で鈍重な LV のことをオリジン LV と呼びます。dm-cache (カーネルドライバー) の要件を満たすため、LVM はキャッシュプール LV をさらに2つのデバイスに分割します。キャッシュデータ LV とキャッシュメタデータ LV です。キャッシュデータ LV にはオリジン LV のデータブロックのコピーが保存されます。キャッシュメタデータ LV にはどこにデータブロックが保存されるかを示す情報が格納されます (例: オリジン LV にあるのかあるいはキャッシュデータ LV にあるのか)。最速かつ最強のキャッシュ論理ボリュームを作成しようと考えている場合はこれらの LV をよく知る必要があります。これらの LV は全て同一の VG に入っていなければなりません。
キャッシュを作成する
高速なディスク (/dev/fastdisk
) を PV に変換し、既存の VG (MyVolGroup
) に追加します:
# vgextend MyVolGroup /dev/fastdisk
/dev/fastdisk
上に自動メタデータのあるキャッシュプールを作成し、既存の LV MyVolGroup/rootvol
をキャッシュボリュームに変換します、1ステップですべてできます:
# lvcreate --type cache --cachemode writethrough -l 100%FREE -n root_cachepool MyVolGroup/rootvol /dev/fastdisk
キャッシュモードには2つのオプションが利用できます:
writethrough
は書き込まれたデータがキャッシュプール LV とオリジナルの LV の両方に保存されることが保証されます。キャッシュプール LV が保存されているデバイスが故障してもデータが消失することはありません。writeback
は高い性能を発揮しますが、キャッシュに使っているドライブが故障したときにデータを喪失する危険性があります。
--cachemode
を指定しなかった場合、デフォルトで writethrough
が使われます。
キャッシュを削除する
上記で作成したキャッシュを削除したい場合:
# lvconvert --uncache MyVolGroup/rootvol
上記のコマンドでキャッシュに留まっている書き込みが origin LV に適用され、それからキャッシュが削除されます。他のオプションについては lvmcache(7) で説明されています。
RAID
LVM は、ソフトウェア RAID を作成するために使用できます。ハードウェア RAID を持っておらず、いずれにせよ LVM を使用するつもりであるならば、これは良い選択肢です。lvmraid(7) によると:
- lvm(8) RAID は、複数の物理デバイスを使用する論理ボリューム (LV) を作成して、パフォーマンスを向上させたり、デバイス障害に対する耐性を持たせたりするための1つの方法です。LVM では、それらの物理デバイスは単一のボリュームグループ (VG) 内の物理ボリューム (PV) です。
LVM RAID は RAID 0、RAID 1、RAID 4、RAID 5、RAID 6、RAID 10 をサポートします。それぞれのレベルに関する詳細は Wikipedia:Standard RAID levels を参照してください。
RAID をセットアップする
物理ボリュームを作成してください:
# pvcreate /dev/sda2 /dev/sdb2
物理ボリューム上にボリュームグループを作成してください:
# vgcreate MyVolGroup /dev/sda2 /dev/sdb2
lvcreate --type RAIDレベル
を使用して論理ボリュームを作成してください。その他のオプションについては lvmraid(7) と lvcreate(8) を参照してください。
# lvcreate --type RaidLevel [OPTIONS] -n Name -L Size VG [PVs]
例:
# lvcreate --type raid1 --mirrors 1 -L 20G -n myraid1vol MyVolGroup /dev/sda2 /dev/sdb2
これは、20 GiB のミラー化された、"myraid1vol" という名前の論理ボリュームを、/dev/sda2
と /dev/sdb2
の上にある VolGroup00 内に作成します。
シンプロビジョニング
lvmthin(7) によると:
- 標準的な lvm(8) 論理ボリューム (LV) 内のブロックは、LV が作成されたときに割り当てられます。しかし、シンプロビジョニング LV 内のブロックは、それらのブロックが書き込まれたときに割り当てられます。そのため、シンプロビジョニング LV には仮想的なサイズが設定され、物理的に利用可能なストレージよりもさらに大きくすることができます。シンプロビジョニング LV のために提供される物理ストレージの容量は、ニーズに応じて後に拡大させることができます。
例: 仮想専用サーバを立てる
古典的なユースケースを挙げましょう。あなたは独自の VPS サービスを開始したいと考え、初めは約100個の VPS を 930 GiB ハードドライブ搭載の1台の PC 上でホストしているとしましょう。割り当てられたストレージのすべてを実際に使用する VPS はほとんど存在しないため、各 VPS に 9 GiB を割り当てるのではなく、各 VPS に最大 30 GiB を使用できるようにし、シンプロビジョニングを使うことで各 VPS に実際に使用している量のハードドライブ領域を割り当てるようにします。930 GiB のハードドライブは /dev/sdb
であるとします。以下がそのセットアップです。
ボリュームグループ MyVolGroup
を準備します。
# vgcreate MyVolGroup /dev/sdb
シンプール LV MyThinPool
を作成します。この LV はストレージ用のブロックを提供します。
# lvcreate --type thin-pool -n MyThinPool -l 95%FREE MyVolGroup
シンプールは2つのサブボリュームから成ります: データ LV とメタデータ LV です。このコマンドは両方を自動的に作成します。しかし、いずれかが完全に一杯になると、シンプールは動作を停止してしまいます。さらに、LVM は現在、それらのボリュームの縮小をサポートしていません。これが、上記のコマンドで 5% の追加領域を用意している理由です。シンプールのデータサブボリュームかメタデータサブボリュームを拡張する必要が発生する場合に備えているのです。
各 VPS に対してシン LV を作成します。これは、ユーザに対してルートパーティションとして公開されるブロックデバイスです。
# lvcreate -n SomeClientsRoot -V 30G --thinpool MyThinPool MyVolGroup
そのブロックデバイス /dev/MyVolGroup/SomeClientsRoot
は、ルートパーティションとして VirtualBox が使用することができます。
シンスナップショットを使用してスペースを節約する
シンスナップショットは、それ自体がシン LV なので、通常のスナップショットよりも遥かに強力です。シンスナップショットが持つ長所の完全なリストは Red Hat のガイド [2] を参照してください。
VPS が作成されるたびに Linux をゼロからインストールするのではなく、基本的な Linux 環境が含まれるただ1つのシン LV から始める方が容量を効率的に使用できます:
# lvcreate -n GenericRoot -V 30G --thinpool MyThinPool MyVolGroup *** /dev/MyVolGroup/GenericRoot に Linux をインストール ***
そして、各 VPS に対してその LV のスナップショットを作成します:
# lvcreate -s MyVolGroup/GenericRoot -n SomeClientsRoot
このように、シンプールには (少なくとも最初は) 全 VPS に対して共通のデータのコピーがただ1つだけ存在します。追加の利点として、新しい VPS の作成が瞬時に行われます。
これらはシンスナップショットであるため、GenericRoot
への1回の書き込み操作において COW 操作は、スナップショット毎に1回ではなく、合計で1回しか行われません。これにより、GenericRoot
の更新は、各 VPS が通常のスナップショットである場合よりも効率的なります。
例: ゼロダウンタイムでストレージをアップグレードする
VPS のホスティング以外にもシンプロビジョニングの活用法は存在します。シンプロビジョニングを使用して、すでにマウントされているファイルシステムをアンマウントすることなく、その実効容量を増やす方法を紹介しましょう。ここでは (再び)、サーバに1台の 930 GiB ハードドライブが搭載されていると仮定します。環境は VPS ホスティングのときと同じですが、シン LV が1つしかなく、LV のサイズはシンプールのサイズよりも遥かに大きいとします。
# lvcreate -n MyThinLV -V 16T --thinpool MyThinPool MyVolGroup
この追加の仮想領域は、シンプールを拡張することで後に実際のストレージで埋めることができます。
しばらくして、ストレージのアップグレードが必要になり、新しいハードドライブ /dev/sdc
がサーバに接続されたとします。シンプールの容量をアップグレードするには、新しいハードドライブを VG に追加します:
# vgextend MyVolGroup /dev/sdc
次に、シンプールを拡張します:
# lvextend -l +95%FREE MyVolGroup/MyThinPool
このシン LV のサイズは 16 TiB なので、最終的にファイルシステムをアンマウントしてサイズ変更するはめになるまでに、さらに 15.09 TiB のハードドライブ領域を追加できます。
トラブルシューティング
LVM コマンドが機能しない
- 適切なモジュールをロードしてください:
# modprobe dm_mod
dm_mod
モジュールは自動的にロードされるはずです。そうならない場合は、明示的にモジュールを起動時にロードするようにしてください。
- lvm コマンドを次のように試してみてください:
# lvm pvdisplay
論理ボリュームが表示されない
既存の論理ボリュームをマウントしようとしても、lvscan
に表示されない場合、以下のコマンドによってボリュームを有効にすることができます:
# vgscan # vgchange -ay
リムーバブルメディア上の LVM
症状:
# vgscan
Reading all physical volumes. This may take a while... /dev/backupdrive1/backup: read failed after 0 of 4096 at 319836585984: Input/output error /dev/backupdrive1/backup: read failed after 0 of 4096 at 319836643328: Input/output error /dev/backupdrive1/backup: read failed after 0 of 4096 at 0: Input/output error /dev/backupdrive1/backup: read failed after 0 of 4096 at 4096: Input/output error Found volume group "backupdrive1" using metadata type lvm2 Found volume group "networkdrive" using metadata type lvm2
病因: 最初にボリュームグループを無効にしないで外付けの LVM ドライブを取り外したこと。切断する前に、次を実行するようにしましょう:
# vgchange -an ボリュームグループ名
修復: あなたがすでに vgchange -ay vg
でそのボリュームグループのアクティブ化を試み、先の Input/output エラーを見たと仮定します:
# vgchange -an ボリュームグループ名
外部ドライブを取り外し、数分待ってください。
# vgscan # vgchange -ay ボリュームグループ名
LVM とリムーバブルメディアでサスペンド/復帰
LVM をリムーバブルメディア (外部 USB ドライブなど) で正常に動作させるには、外部ドライブのボリュームグループをサスペンド前に非アクティブ化させる必要があります。これが行われないと、(復帰後に) dm デバイスでバッファ I/O エラーが発生する場合があります。この理由により、外部ドライブと内部ドライブを同じボリュームグループ内に混在させることは推奨されません。
外部 USB ドライブのあるボリュームグループを自動的に非アクティブ化するには、以下の方法でそれぞれのボリュームグループに sleep_umount
タグを付けてください:
# vgchange --addtag sleep_umount 外部ボリュームグループ
このタグを設定したら、systemd の以下のユニットファイルを使用して、サスペンド前にボリュームを適切に非アクティブ化します。復帰時には、それらのボリュームは LVM によって自動的にアクティブ化されます。
/etc/systemd/system/ext_usb_vg_deactivate.service
[Unit] Description=Deactivate external USB volume groups on suspend Before=sleep.target [Service] Type=oneshot ExecStart=-/etc/systemd/system/deactivate_sleep_vgs.sh [Install] WantedBy=sleep.target
あと以下のスクリプトです:
/etc/systemd/system/deactivate_sleep_vgs.sh
#!/bin/sh TAG=@sleep_umount vgs=$(vgs --noheadings -o vg_name $TAG) echo "Deactivating volume groups with $TAG tag: $vgs" # $TAG タグのあるボリュームグループに属する論理ボリュームをアンマウントします for vg in $vgs; do for lv_dev_path in $(lvs --noheadings -o lv_path -S lv_active=active,vg_name=$vg); do echo "Unmounting logical volume $lv_dev_path" umount $lv_dev_path done done # sleep_umount でタグ付けされたボリュームグループを非アクティブ化します for vg in $vgs; do echo "Deactivating volume group $vg" vgchange -an $vg done
最後に、そのユニットを有効化してください。
連続している論理ボリュームのサイズ変更に失敗する
論理ボリュームを拡張しようとすると以下のエラーが表示される場合:
" Insufficient suitable contiguous allocatable extents for logical volume "
明示的に連続するように割り当てるポリシー (オプション -C y
または --alloc contiguous
) を使って論理ボリュームが作成されており、ボリュームの近隣に連続したエクステントが存在しないのが原因です。[3]
この問題を修正するには、論理ボリュームを拡張する前に、lvchange --alloc inherit 論理ボリューム
で割り当てポリシーを変更してください。連続割り当てポリシーを使い続ける必要がある場合、空きエクステントが十分存在するディスク領域にボリュームを移動してください。[4] を参照。
"grub-mkconfig" コマンドで "unknown filesystem" エラーが発生する
grub.cfg を生成する前にスナップショットボリュームは削除するようにしてください。
シンプロビジョニングボリュームに root を配置する場合にタイムアウトが発生する
大量のスナップショットを使用した場合、thin_check
の実行時間が長くなるためルートデバイスがタイムアウトしてしまうことがあります。そのためブートローダーの設定に rootdelay=60
カーネルブートパラメータを追加してください。あるいは、thin_check
によるブロックマップのチェックをスキップし ([5] を参照) Initramfs を再生成してください:
/etc/lvm/lvm.conf
thin_check_options = [ "-q", "--clear-needs-check-flag", "--skip-mappings" ]
シャットダウンが遅くなる
RAIDやスナップショット、シンプロビジョニングを使用していてシャットダウンが遅くなる場合、lvm2-monitor.service
が起動していることを確認してください。FS#50420 を参照。
シンプロビジョニングされたスワップボリューム上にハイバネートする
サスペンドとハイバネート#thinly-provisioned LVM ボリュームへのハイバネーション を参照してください。