「ZFS」の版間の差分
細 (1版 をインポートしました) |
(→設定: 情報を更新) |
||
(3人の利用者による、間の17版が非表示) | |||
1行目: | 1行目: | ||
[[Category:ファイルシステム]] |
[[Category:ファイルシステム]] |
||
+ | [[Category:Oracle]] |
||
[[en:ZFS]] |
[[en:ZFS]] |
||
+ | [[ru:ZFS]] |
||
+ | [[zh-hans:ZFS]] |
||
{{Related articles start}} |
{{Related articles start}} |
||
{{Related|ファイルシステム}} |
{{Related|ファイルシステム}} |
||
+ | {{Related|ZFS/仮想ディスク}} |
||
− | {{Related3|Experimenting with ZFS|ZFS の実験}} |
||
− | {{ |
+ | {{Related|ZFS に Arch Linux をインストール}} |
− | {{Related4|ZFS on FUSE}} |
||
{{Related articles end}} |
{{Related articles end}} |
||
− | [[Wikipedia:ZFS|ZFS]] は (現在は Oracle によって吸収合併された) [[Wikipedia:ja:サン・マイクロシステムズ|Sun Microsystems]] によって作成された先進的なファイルシステムで、2005年11月に OpenSolaris でリリースされました。ZFS には以下の機能があります: ストレージプール (統合ボリューム管理 -- zpool), [[Wikipedia:ja:コピーオンライト|Copy-on-write]], [[Wikipedia:ja:スナップショット (ファイルシステム)|スナップショット]], データ整合性のチェックと自動修復 (スクラブ), [[Wikipedia:ja:RAID#RAID Z: 可変ストライプ幅|RAID-Z]], 最大[[Wikipedia:ja:エクサバイト|16エクサバイト]]のファイルサイズ、最大[[Wikipedia:ja:ゼタバイト|256ゼタバイト]]のボリュームサイズ。ZFS は [[Wikipedia:ja:Common Development and Distribution License|Common Development and Distribution License]] (CDDL) でライセンスされています。 |
+ | [[Wikipedia:ZFS|ZFS]] は (現在は Oracle によって吸収合併された) [[Wikipedia:ja:サン・マイクロシステムズ|Sun Microsystems]] によって作成された先進的なファイルシステムで、2005年11月に OpenSolaris でリリースされました。ZFS には以下の機能があります: ストレージプール (統合ボリューム管理 -- zpool), [[Wikipedia:ja:コピーオンライト|Copy-on-write]], [[Wikipedia:ja:スナップショット (ファイルシステム)|スナップショット]], データ整合性のチェックと自動修復 (スクラブ), [[Wikipedia:ja:RAID#RAID Z: 可変ストライプ幅|RAID-Z]], 最大[[Wikipedia:ja:エクサバイト|16エクサバイト]]のファイルサイズ、最大[[Wikipedia:ja:ゼタバイト|256ゼタバイト]]のボリュームサイズ。ファイルシステム (データセット) やファイルの数は無制限です [http://docs.oracle.com/cd/E19253-01/819-5461/zfsover-2/index.html]。ZFS は [[Wikipedia:ja:Common Development and Distribution License|Common Development and Distribution License]] (CDDL) でライセンスされています。 |
− | [ |
+ | [https://web.archive.org/web/20060428092023/http://www.sun.com/2004-0914/feature/ "The last word in filesystems"] では ZFS は安定していて高速、セキュアで、そして将来性を考えた設計をしていると述べられています。ライセンスが CDDL で、GPL と互換がないため、ZFS は Linux カーネルと一緒に配布することができません。しかしながら、サードパーティによってネイティブの Linux カーネルモジュールを開発・配布することは可能です。それが ZFSonLinux (ZOL) になります。 |
ZOL は[https://www.llnl.gov/ ローレンス・リバモア国立研究所]による後押しを受けているプロジェクトで、その大規模なストレージ要件とスーパーコンピュータに合うようなネイティブの Linux カーネルモジュールを開発することを目標としています。 |
ZOL は[https://www.llnl.gov/ ローレンス・リバモア国立研究所]による後押しを受けているプロジェクトで、その大規模なストレージ要件とスーパーコンピュータに合うようなネイティブの Linux カーネルモジュールを開発することを目標としています。 |
||
+ | {{Note|ZFS コードの CDDL ライセンスと Linux カーネルの GPL に法的な互換性がないため ([https://sfconservancy.org/blog/2016/feb/25/zfs-and-linux/ ],[[wikipedia:Common_Development_and_Distribution_License#GPL_compatibility|CDDL-GPL]],[[wikipedia:ZFS#Linux|ZFS in Linux]])、ZFS の開発はカーネルによってサポートされていません: |
||
− | ==インストール== |
||
+ | * ZFS は [[Arch User Repository]] に含まれており非公式の [[非公式ユーザーリポジトリ#archzfs|archzfs]] リポジトリから使うこともできます。 |
||
+ | * ZFSonLinux プロジェクトは最新の Linux カーネルに追従しています。ZFSonLinux の安定版がリリースされた後に Arch の ZFS メンテナも同バージョンをリリースします。 |
||
+ | * 新しいバージョンのカーネルがリリースされてから ZFSonLinux によってサポートされるまでタイムラグがあるため、場合によっては通常のローリングアップデートができなくなる可能性があります。}} |
||
+ | == インストール == |
||
− | [[Arch User Repository|Arch User Repository]] か [[Unofficial user repositories#demz-repo-core|demz-repo-core]] リポジトリから {{AUR|zfs-git}} をインストールしてください。このパッケージは {{AUR|zfs-utils-git}} と {{AUR|spl-git}} を依存パッケージとしており、さらに {{AUR|spl-utils-git}} が依存パッケージとしてインストールされます。SPL (Solaris Porting Layer) は ZFS に対応するための Solaris API を実装する Linux カーネルモジュールです。 |
||
+ | === 一般 === |
||
− | {{Note|1=zfs-git パッケージは [[AUR|AUR]] のオリジナルの zfs パッケージを置き換えます。ZFSonLinux.org は安定版リリースを出すのが遅いため、カーネル API の変更によって Arch の ZFSonLinux の安定版ビルドが破壊されます。ZFSonLinux の master ブランチへの変更はリグレッションテストがされているので安定していると考えられます。}} |
||
+ | {{warning|[[Dynamic_Kernel_Module_Support|dkms]] バージョンのパッケージを使用しない場合、ZFS と SPL のカーネルモジュールは特定のカーネルバージョンに拘束されます。AUR や [[非公式ユーザーリポジトリ#archzfs|archzfs]] リポジトリに新しいパッケージがアップロードされるまで、カーネルアップデートを適用することはできません。}} |
||
− | 安定版の ZFS ビルドを使いたいユーザーには、[[Arch User Repository|Arch User Repository]] か [[Unofficial user repositories#demz-repo-core|demz-repo-core]] リポジトリから {{AUR|zfs-lts}} がインストールできます。 |
||
+ | {{Tip|使用しているカーネルが新しすぎる場合、[[非公式ユーザーリポジトリ#archzfs|archzfs]] リポジトリから古いバージョンのカーネルに[[ダウングレード]]することができます。}} |
||
− | {{warning|ZFS と SPL カーネルモジュールは特定のバージョンのカーネルに固定されています。AUR や [[Unofficial user repositories#demz-repo-core|demz-repo-core]] リポジトリに新しいパッケージがアップロードされるまでは、カーネルのアップデートを適用してはいけません。}} |
||
+ | [[Arch User Repository]] または [[非公式ユーザーリポジトリ#archzfs|archzfs]] リポジトリから以下のパッケージのどれかをインストールしてください: |
||
− | コマンドラインで {{ic|zpool status}} を実行してインストールをテストしてください。"insmod" エラーが起こる場合は、{{ic|depmod -a}} を実行してみてください。 |
||
+ | * {{AUR|zfs-linux}} - 安定版のリリース [http://zfsonlinux.org/]。 |
||
+ | * {{AUR|zfs-linux-git}} - 開発版のリリース (新しいバージョンのカーネルをサポート) [https://github.com/zfsonlinux/zfs/releases]。 |
||
+ | * {{AUR|zfs-linux-lts}} - LTS カーネル用の安定版リリース。 |
||
+ | * {{AUR|zfs-linux-lts-git}} - LTS カーネル用の [https://github.com/zfsonlinux/zfs/releases 開発版] リリース |
||
+ | * {{AUR|zfs-linux-hardened}} - hardened カーネル用の安定版リリース。 |
||
+ | * {{AUR|zfs-linux-hardened-git}} - hardened カーネル用の [https://github.com/zfsonlinux/zfs/releases 開発版] リリース。 |
||
+ | * {{AUR|zfs-linux-zen}} - zen カーネル用の安定版リリース。 |
||
+ | * {{AUR|zfs-linux-zen-git}} - zen カーネル用の [https://github.com/zfsonlinux/zfs/releases 開発版] リリース。 |
||
+ | * {{AUR|zfs-dkms}} - ダイナミックカーネルモジュールをサポートしているバージョン。 |
||
+ | * {{AUR|zfs-dkms-git}} - ダイナミックカーネルモジュールをサポートしている [https://github.com/zfsonlinux/zfs/releases 開発版] リリース。 |
||
+ | 上記のパッケージにはそれぞれ {{ic|zfs-utils}}, {{ic|spl}}, {{ic|spl-utils}} パッケージに依存しています。SPL (Solaris Porting Layer) は ZFS を使用するために Solaris の API を実装する Linux カーネルモジュールです。 |
||
− | === Archiso === |
||
+ | パッケージをインストールしたらコマンドラインで {{ic|zpool status}} を実行してテストしてください。"insmod" エラーが表示される場合、{{ic|depmod -a}} を試してみてください。 |
||
− | ZFS の root ファイルシステムに Arch Linux をインストールする場合は、[[Arch User Repository|Arch User Repository]] か [[Unofficial user repositories#demz-repo-archiso|demz-repo-archiso]] リポジトリから {{AUR|zfs-git}} をインストールしてください。 |
||
+ | === Root on ZFS === |
||
− | 詳しい情報は [[Installing Arch Linux on ZFS]] を参照。 |
||
+ | こちらを参照 [[ZFS に Arch Linux をインストール#インストール]] |
||
− | === 自動ビルドスクリプト === |
||
+ | === DKMS === |
||
− | 依存関係が入れ子になっているため、上のビルド順序は重要です。以下のシェルスクリプトを使うことで、パッケージのダウンロードから全てのプロセスを自動化することができます。スクリプトを使うために必要なものは: |
||
− | *{{pkg|sudo}} - 下のスクリプトを動作させるには {{ic|/usr/bin/clean-chroot-manager}} を実行するための sudo の権限がユーザーに必要です。 |
||
− | *{{pkg|rsync}} - ビルドファイルを移動するのに必要。 |
||
− | *{{AUR|cower}} - AUR からソースを取得するのに必要。 |
||
− | *{{AUR|clean-chroot-manager}} - クリーンな chroot でビルドしてローカルリポジトリにパッケージを追加するのに必要。 |
||
+ | ユーザーは [[DKMS]] を利用して、カーネルのアップグレードごとに ZFS モジュールを自動的に再構築できます。 |
||
− | 以下のようにローカルリポジトリを {{ic|/etc/pacman.conf}} に追加してください: |
||
− | {{hc|$ tail /etc/pacman.conf|<nowiki> |
||
− | [chroot_local] |
||
− | SigLevel = Optional TrustAll |
||
− | Server = file:///path/to/localrepo/defined/below |
||
− | </nowiki>}} |
||
+ | {{Note|{{Pkg|dkms}} をインストールするときは、[[Dynamic Kernel Module Support#インストール]] を参照してください。}} |
||
− | {{hc|~/bin/build_zfs|<nowiki> |
||
− | #!/bin/bash |
||
− | # |
||
− | # ZFS Builder by graysky |
||
− | # |
||
+ | {{AUR|zfs-dkms}} または {{AUR|zfs-dkms-git}} をインストールします。 |
||
− | # define the temp space for building here |
||
− | WORK='/scratch' |
||
+ | {{Tip|{{ic|IgnorePkg}} エントリを [[pacman.conf]] に追加して、通常の更新時にこれらのパッケージがアップグレードされないようにします。}} |
||
− | # create this dir and chown it to your user |
||
− | # this is the local repo which will store your zfs packages |
||
− | REPO='/var/repo' |
||
+ | == ZFS の実験 == |
||
− | # Add the following entry to /etc/pacman.conf for the local repo |
||
− | #[chroot_local] |
||
− | #SigLevel = Optional TrustAll |
||
− | #Server = file:///path/to/localrepo/defined/above |
||
+ | {{ic|~/zfs0.img}} {{ic|~/zfs1.img}} {{ic|~/zfs2.img}} などのシンプルなファイルの''仮想ブロックデバイス'' (ZFS では VDEV と呼称) を使って、データを消失する危険性なく、ZFS の実験を行いたいユーザーは [[ZFS/仮想ディスク]]の記事を見て下さい。RAIDZ アレイの作成や、意図的にデータを破損させてそれを復元したり、データセットのスナップショットなどの一般的な作業を取り扱っています。 |
||
− | for i in rsync cower clean-chroot-manager; do |
||
− | command -v $i >/dev/null 2>&1 || { |
||
− | echo "I require $i but it's not installed. Aborting." >&2 |
||
− | exit 1; } |
||
− | done |
||
+ | == 設定 == |
||
− | [[ -f ~/.config/clean-chroot-manager.conf ]] && |
||
− | . ~/.config/clean-chroot-manager.conf || exit 1 |
||
+ | ZFS は、その作成者によって "管理不要" のファイルシステムとみなされています。したがって、ZFS の構成は非常に簡単です。設定は主に、{{ic|zfs}} と {{ic|zpool}} の 2 つのコマンドで行われます。 |
||
− | [[ ! -d "$REPO" ]] && |
||
− | echo "Make the dir for your local repo and chown it: $REPO" && exit 1 |
||
+ | === 自動起動 === |
||
− | [[ ! -d "$WORK" ]] && |
||
− | echo "Make a work directory: $WORK" && exit 1 |
||
+ | ZFS を"ゼロアドミニストレーション"の名に負うように使うには、zfs デーモンを起動時にロードする必要があります。このため {{ic|/etc/fstab}} で zpool をマウントする必要はありません。zfs デーモンが自動的に zfs プールをインポートしてマウントを行います。デーモンは {{ic|/etc/zfs/zpool.cache}} ファイルを読み込んで zfs プールをマウントします。 |
||
− | cd "$WORK" |
||
− | for i in spl-utils-git spl-git zfs-utils-git zfs-git; do |
||
− | [[ -d $i ]] && rm -rf $i |
||
− | cower -d $i |
||
− | done |
||
+ | zfs デーモンによって自動でマウントしたいプール毎に次を実行: |
||
− | for i in spl-utils-git spl-git zfs-utils-git zfs-git; do |
||
− | cd "$WORK/$i" |
||
− | sudo ccm s |
||
− | done |
||
+ | # zpool set cachefile=/etc/zfs/zpool.cache <pool> |
||
− | rsync -auvxP "$CHROOTPATH/root/repo/" "$REPO" |
||
− | </nowiki>}} |
||
+ | {{Note|ZOL バージョン 0.6.5.8 から ZFS のサービスユニットには変更が加えられ、明示的に ZFS サービスを有効化しなくてはならなくなりました。詳しくは [https://github.com/archzfs/archzfs/issues/72 https://github.com/archzfs/archzfs/issues/72] を参照。}} |
||
− | == ZFS の実験 == |
||
+ | 関連するサービスを [[有効化]] ({{ic|zfs-import-cache.service}}) とターゲット ({{ic|zfs.target}} および {{ic|zfs-import.target}}) プールは起動時に自動的にインポートされます。 |
||
− | {{ic|~/zfs0.img}} {{ic|~/zfs1.img}} {{ic|~/zfs2.img}} などのシンプルなファイルの''仮想ブロックデバイス'' (ZFS では VDEV と呼称) を使って、データを消失する危険性なく、ZFS の実験を行いたいユーザーは [[Experimenting with ZFS]] の記事を見て下さい。RAIDZ アレイの作成や、意図的にデータを破損させてそれを復元したり、データセットのスナップショットなどの一般的な作業を取り扱っています。 |
||
+ | ZFS ファイルシステムをマウントするには、次の 2 つの選択肢があります。 |
||
− | ==設定== |
||
+ | * [[#Using zfs-mount.service|zfs-mount.service]] を有効にします |
||
+ | * [[#Using zfs-mount-generator|zfs-mount-generator]] を使用する |
||
+ | ==== zfs-mount.service の使用 ==== |
||
− | ZFS はその開発者から"ゼロアドミニストレーション"のファイルシステムであるとされています。そのため、ZFS の設定はとても簡単です。設定は主に2つのコマンドを使って行います: {{ic|zfs}} と {{ic|zpool}}。 |
||
− | + | 起動時に ZFS ファイルシステムを自動的にマウントするには、{{ic|zfs-mount.service}} と {{ic|zfs.target}} を [[有効化]] する必要があります。 |
|
+ | {{Note|これは、十分に早くマウントされないため、分離された /var データセットでは機能しません。代わりに、[[ZFS#zfs-mount-generator の使用|zfs-mount-generator]] オプションを使用する必要があります。詳細については、[https://github.com/openzfs/zfs/issues/3768 OpenZFS issue #3768] を参照してください。}} |
||
− | ===自動起動=== |
||
+ | ==== zfs-mount-generator の使用 ==== |
||
− | ZFS を"ゼロアドミニストレーション"の名に負うように使うには、zfs デーモンを起動時にロードする必要があります。このため {{ic|/etc/fstab}} で zpool をマウントする必要はありません。zfs デーモンが自動的に zfs プールをインポートしてマウントを行います。デーモンは {{ic|/etc/zfs/zpool.cache}} ファイルを読み込んで zfs プールをマウントします。 |
||
− | |||
− | zfs デーモンによって自動でマウントしたいプール毎に次を実行: |
||
− | # zpool set cachefile=/etc/zfs/zpool.cache <pool> |
||
− | |||
− | ==Systemd== |
||
− | |||
− | ブート時に自動的に起動するようにサービスを有効化: |
||
− | |||
− | # systemctl enable zfs.target |
||
+ | zfs-mount-generator を使用して、起動時に ZFS ファイルシステムの systemd マウント ユニットを作成することもできます。systemd は、{{Ic|zfs-mount.service}} を使用せずに、マウント ユニットに基づいてファイルシステムを自動的にマウントします。そのためには、次のことを行う必要があります。 |
||
− | デーモンを手動で起動するには: |
||
+ | # {{Ic|/etc/zfs/zfs-list.cache}} ディレクトリを作成します。 |
||
− | # systemctl start zfs.target |
||
+ | # マウント可能な ZFS ファイルシステムのリストを作成するために必要な ZFS イベント デーモン (ZED) スクリプト (ZEDLET と呼ばれる) を有効にします。(このリンクは、OpenZFS 2.0.0 以上を使用している場合に自動的に作成されます。) {{bc|# ln -s /usr/lib/zfs/zed.d/history_event-zfs-list-cacher.sh /etc/zfs /zed.d}} |
||
+ | # [[有効化]] {{ic|zfs.target}} および [[起動/有効化]] ZFS イベントデーモン ({{ic|zfs-zed.service}}) このサービスは、前のステップでスクリプトを実行する役割を果たします。 |
||
+ | # {{Ic|/etc/zfs/zfs-list.cache}} にプールにちなんだ名前の空のファイルを作成する必要があります。ZEDLET は、プールのファイルがすでに存在する場合にのみファイルシステムのリストを更新します。{{bc|# touch /etc/zfs/zfs-list.cache/<プール名>}} |
||
+ | # {{Ic|/etc/zfs/zfs-list.cache/<プール名>}} の内容を確認します。空の場合は、{{Ic|zfs-zed.service}} が実行されていることを確認し、次を実行して ZFS ファイルシステムのいずれかの canmount プロパティを変更します: {{bc|1=zfs set canmount=off zroot/この変更により、ZFS は ZED によってキャプチャされるイベントを発生させ、ZEDLET を実行して {{Ic|/etc/zfs/zfs-list.cache}} 内のファイルを更新します。{{Ic|/etc/zfs/zfs-list.cache}} 内のファイルが更新された場合は、次のコマンドを実行してファイルシステムの {{Ic|canmount}} プロパティを設定し直すことができます: {{bc|1=zfs set canmount=on zroot/fs1}} |
||
+ | システム内の ZFS プールごとに、{{Ic|/etc/zfs/zfs-list.cache}} にファイルを追加する必要があります。{{Ic|zfs-import-cache.service}} と {{Ic|zfs-import.target}} を [[ZFS#自動起動|上で説明]] として有効にして、プールがインポートされていることを確認します。 |
||
==ストレージプールの作成== |
==ストレージプールの作成== |
||
127行目: | 106行目: | ||
{{Note|デバイスの一部または全部でソフトウェア RAID を使っている場合は、昔の RAID 設定情報を全て削除してください ([[Mdadm#デバイスの準備]])。}} |
{{Note|デバイスの一部または全部でソフトウェア RAID を使っている場合は、昔の RAID 設定情報を全て削除してください ([[Mdadm#デバイスの準備]])。}} |
||
− | {{Warning|セクターサイズが 4KB の Advanced Format ディスクでは、パフォーマンスを最大限引き出すために ashift を 12 にすることが推奨されています。Advanced Format ディスクはレガシーなシステムとの互換性のために512バイトのセクターサイズをエミュレートするため、ZFS が使用する ashift の数字が望ましい数値にならないことがあります。プールを一度作成してしまった場合、ashift オプションを変更するにはプールを再作成するしかありません。また、ashift を 12 にすると利用できる容量が減少します。[ |
+ | {{Warning|セクターサイズが 4KB の Advanced Format ディスクでは、パフォーマンスを最大限引き出すために ashift を 12 にすることが推奨されています。Advanced Format ディスクはレガシーなシステムとの互換性のために512バイトのセクターサイズをエミュレートするため、ZFS が使用する ashift の数字が望ましい数値にならないことがあります。プールを一度作成してしまった場合、ashift オプションを変更するにはプールを再作成するしかありません。また、ashift を 12 にすると利用できる容量が減少します。[https://github.com/zfsonlinux/zfs/wiki/faq#performance-considerations 1.10 What’s going on with performance?], [https://github.com/zfsonlinux/zfs/wiki/faq#advanced-format-disks 1.15 How does ZFS on Linux handles Advanced Format disks?], [http://wiki.illumos.org/display/illumos/ZFS+and+Advanced+Format+disks ZFS and Advanced Format disks] を見て下さい。}} |
− | ドライブの一覧を確認できたら、次は zpool を追加するドライブの id を取得します。10デバイス以下の ZFS ストレージプールを作成する際はデバイス id を使うことを [ |
+ | ドライブの一覧を確認できたら、次は zpool を追加するドライブの id を取得します。10デバイス以下の ZFS ストレージプールを作成する際はデバイス id を使うことを [https://github.com/zfsonlinux/zfs/wiki/faq#selecting-dev-names-when-creating-a-pool zfs on Linux の開発者は推奨しています]。id を調べるには: |
− | + | # ls -lh /dev/disk/by-id/ |
|
id は以下のように表示されます: |
id は以下のように表示されます: |
||
139行目: | 118行目: | ||
lrwxrwxrwx 1 root root 9 Aug 12 16:26 ata-ST3000DM001-9YN166_S1F0KBP8 -> ../../sdd |
lrwxrwxrwx 1 root root 9 Aug 12 16:26 ata-ST3000DM001-9YN166_S1F0KBP8 -> ../../sdd |
||
lrwxrwxrwx 1 root root 9 Aug 12 16:26 ata-ST3000DM001-9YN166_S1F0KDGY -> ../../sdb |
lrwxrwxrwx 1 root root 9 Aug 12 16:26 ata-ST3000DM001-9YN166_S1F0KDGY -> ../../sdb |
||
+ | |||
+ | {{Warning|デバイス名 (例: {{ic|/dev/sda}}, {{ic|/dev/sdb}}) を使用して zpool を作成した場合、起動時に ZFS が zpool を認識できなくなる可能性があります。}} |
||
そして、いよいよ ZFS プールを作成します: |
そして、いよいよ ZFS プールを作成します: |
||
152行目: | 133行目: | ||
* '''pool''': プールの名前。 |
* '''pool''': プールの名前。 |
||
− | * '''raidz''': デバイスのプールから作成される仮想デバイスのタイプ。Raidz は raid5 の特殊な実装です。raiz に関する詳細は [https://blogs.oracle.com/bonwick/entry/raid_z Jeff Bonwick's Blog -- RAID-Z] を見て下さい。 |
+ | * '''raidz''': デバイスのプールから作成される仮想デバイスのタイプ。Raidz は raid5 の特殊な実装です。raiz に関する詳細は [https://blogs.oracle.com/bonwick/entry/raid_z Jeff Bonwick's Blog -- RAID-Z] を見て下さい。RAID-1 を使用する場合は代わりに '''mirror''' を使用したほうが良いでしょう [http://blog.programster.org/zfs-create-disk-pools]。 |
* '''ids''': プールに含まれるドライブまたはパーティションの名前。{{ic|/dev/disk/by-id}} で取得。 |
* '''ids''': プールに含まれるドライブまたはパーティションの名前。{{ic|/dev/disk/by-id}} で取得。 |
||
160行目: | 141行目: | ||
# zpool create -f -m /mnt/data bigdata raidz ata-ST3000DM001-9YN166_S1F0KDGY ata-ST3000DM001-9YN166_S1F0JKRR ata-ST3000DM001-9YN166_S1F0KBP8 ata-ST3000DM001-9YN166_S1F0JTM1 |
# zpool create -f -m /mnt/data bigdata raidz ata-ST3000DM001-9YN166_S1F0KDGY ata-ST3000DM001-9YN166_S1F0JKRR ata-ST3000DM001-9YN166_S1F0KBP8 ata-ST3000DM001-9YN166_S1F0JTM1 |
||
− | === Advanced |
+ | === Advanced Format ディスク === |
− | セクターサイズが512バイトではなく4096バイトの Advanced Format ディスクを使用する場合、レガシーなシステムとの後方互換性のため ZFS のセクターサイズ自動検出アルゴリズムが512バイトと検出して、パフォーマンスが落ちてしまうことがあります。正しいセクターサイズが使われるように、{{ic|<nowiki>ashift=12</nowiki>}} オプションを使用して下さい ([ |
+ | セクターサイズが512バイトではなく4096バイトの Advanced Format ディスクを使用する場合、レガシーなシステムとの後方互換性のため ZFS のセクターサイズ自動検出アルゴリズムが512バイトと検出して、パフォーマンスが落ちてしまうことがあります。正しいセクターサイズが使われるように、{{ic|<nowiki>ashift=12</nowiki>}} オプションを使用して下さい ([https://github.com/zfsonlinux/zfs/wiki/faq#advanced-format-disks ZFS on Linux FAQ] を参照)。この場合の完全なコマンドは以下の通りになります: |
# zpool create -f -o ashift=12 -m /mnt/data bigdata raidz ata-ST3000DM001-9YN166_S1F0KDGY ata-ST3000DM001-9YN166_S1F0JKRR ata-ST3000DM001-9YN166_S1F0KBP8 ata-ST3000DM001-9YN166_S1F0JTM1 |
# zpool create -f -o ashift=12 -m /mnt/data bigdata raidz ata-ST3000DM001-9YN166_S1F0KDGY ata-ST3000DM001-9YN166_S1F0JKRR ata-ST3000DM001-9YN166_S1F0KBP8 ata-ST3000DM001-9YN166_S1F0JTM1 |
||
188行目: | 169行目: | ||
この段階で、起動時に ZFS プールがマウントされるか確認するためにマシンを再起動すると良いでしょう。データを移し替える前に全てのエラーに対処するのがベストです。 |
この段階で、起動時に ZFS プールがマウントされるか確認するためにマシンを再起動すると良いでしょう。データを移し替える前に全てのエラーに対処するのがベストです。 |
||
+ | |||
+ | === GRUB 互換のプールを作成する === |
||
+ | |||
+ | {{note|GRUB や ZFS にアップデートがあるとこのセクションはよく時代遅れになりがちです。最新の情報はマニュアルページを読んでください。}} |
||
+ | |||
+ | ''zpool'' はプールの全ての機能を有効にします。{{ic|/boot}} を ZFS 上に配置して [[GRUB]] を使用する場合、GRUB によってサポートされている機能だけを有効にしてください。そうしないと GRUB がプールを読み込むことができなくなります。GRUB 2.02 は {{ic|lz4_compress}}, {{ic|hole_birth}}, {{ic|embedded_data}}, {{ic|extensible_dataset}}, {{ic|large_blocks}} をサポートしています。これは ZFSonLinux 0.7.1 の全ての機能ではないため、サポートされていない機能は無効化する必要があります。 |
||
+ | |||
+ | 未対応の機能を無効化してプールを作成するには: |
||
+ | |||
+ | # zpool create -o feature@multi_vdev_crash_dump=disabled \ |
||
+ | -o feature@large_dnode=disabled \ |
||
+ | -o feature@sha512=disabled \ |
||
+ | -o feature@skein=disabled \ |
||
+ | -o feature@edonr=disabled \ |
||
+ | $POOL_NAME $VDEVS |
||
+ | |||
+ | ZFS on Linux の git 版を使う場合は {{ic|1=-o feature@encryption=disabled}} も追加してください。 |
||
== チューニング == |
== チューニング == |
||
=== 一般 === |
=== 一般 === |
||
− | zfs ファイルシステムでは多数のパラメータを使うことができます。パラメータの完全なリストは |
+ | zfs ファイルシステムでは多数のパラメータを使うことができます。パラメータの完全なリストは {{ic|zfs get all <pool>}} で見ることが可能です。調整するパラメータとしては '''atime''' と '''compression''' が一般的です。 |
atime はデフォルトで有効にされていますが、ほとんどのユーザーにとっては zpool に余分な書き込みになります。zfs コマンドを使うことで atime を無効にできます: |
atime はデフォルトで有効にされていますが、ほとんどのユーザーにとっては zpool に余分な書き込みになります。zfs コマンドを使うことで atime を無効にできます: |
||
200行目: | 198行目: | ||
# zfs set relatime=on <pool> |
# zfs set relatime=on <pool> |
||
− | compression はつまり、データの透過圧縮です。様々な |
+ | compression はつまり、データの透過圧縮です。ZFS は様々なアルゴリズムに対応しており、現在は lz4 はデフォルトです。あまり書き込みを行わないようなデータなら ''gzip'' を有効にすることで高い圧縮率を実現できます。詳しくは man ページを読んでください。zfs コマンドを使って圧縮を有効にするには: |
# zfs set compression=lz4 <pool> |
# zfs set compression=lz4 <pool> |
||
また、zfs コマンドを使うことで zfs の他のオプションを表示できます: |
また、zfs コマンドを使うことで zfs の他のオプションを表示できます: |
||
− | # |
+ | # zfs get all <pool> |
+ | |||
+ | === SSD キャッシュ === |
||
+ | SSD デバイスを書き込みインテントログ (ZIL または SLOG) として追加して l2arc (layer 2 adaptive replacement cache) として使うことができます。手順は新しい VDEV を作成するのと似ています。以下のコマンドで使用する <device-id> は {{ic|ls -lh /dev/disk/by-id/}} で確認できます。 |
||
+ | |||
+ | ZIL を追加するには: |
||
+ | # zpool add <pool> log <device-id> |
||
+ | |||
+ | またはミラー ZIL を追加するには: |
||
+ | # zpool add <pool> log mirror <device-id-1> <device-id-2> |
||
+ | |||
+ | l2arc を追加するには: |
||
+ | # zpool add <pool> cache <device-id> |
||
+ | |||
+ | またはミラー l2arc を追加するには: |
||
+ | # zpool add <pool> cache mirror <device-id-1> <device-id-2> |
||
=== データベース === |
=== データベース === |
||
ZFS は他のファイルシステムとは異なり、(一般的にはブロックサイズと呼ばれる) レコードサイズを変えることができます。デフォルトでは、ZFS のレコードサイズは 128KiB で、書き込むファイルのサイズにあわせて 512B から 128KiB までのサイズのブロックを動的に割り当てます。数バイトの書き込みの時でも新規に 128KiB のブロックを割り当てなくてはならないという代償を払って、断片化やファイルアクセスが補助されます。 |
ZFS は他のファイルシステムとは異なり、(一般的にはブロックサイズと呼ばれる) レコードサイズを変えることができます。デフォルトでは、ZFS のレコードサイズは 128KiB で、書き込むファイルのサイズにあわせて 512B から 128KiB までのサイズのブロックを動的に割り当てます。数バイトの書き込みの時でも新規に 128KiB のブロックを割り当てなくてはならないという代償を払って、断片化やファイルアクセスが補助されます。 |
||
− | ほとんどの RDBMS はデフォルトで 8KiB サイズのブロックで動作します。[[MySQL|MySQL/MariaDB]], [[ |
+ | ほとんどの RDBMS はデフォルトで 8KiB サイズのブロックで動作します。[[MySQL|MySQL/MariaDB]], [[PostgreSQL]], [[Oracle]] のブロックサイズは調整することできますが、デフォルトのブロックサイズは3つとも 8KiB を使っています。パフォーマンスの影響を考え、また、(バックアップ用の) スナップショットの差異を最小限にするために、以下のようなコマンドを使って ZFS をデータベースに適応するよう設定するのが望ましいでしょう: |
# zfs set recordsize=8K <pool>/postgres |
# zfs set recordsize=8K <pool>/postgres |
||
228行目: | 241行目: | ||
=== /tmp === |
=== /tmp === |
||
− | ZFS を使って {{ic|/tmp}} ディレクトリを保存したい場合、ファイルシステムの同期を無効にすることで {{ic|/tmp}} への書き込みを行うアプリケーションのパフォーマンスを向上させることがあります。これによって ZFS はアプリケーションの同期リクエスト (例: |
+ | ZFS を使って {{ic|/tmp}} ディレクトリを保存したい場合、ファイルシステムの同期を無効にすることで {{ic|/tmp}} への書き込みを行うアプリケーションのパフォーマンスを向上させることがあります。これによって ZFS はアプリケーションの同期リクエスト (例: {{ic|fsync}} や {{ic|O_SYNC}}) を無視して、すぐに戻るようになります。アプリケーションサイドのデータの一貫性を保つのが難しくなる一方 (データベースで同期を無効化してはいけません)、{{ic|/tmp}} のファイルはあまり重要でないことが多いため、影響は限られます。ZFS 自体の整合性には影響を与えないので注意してください。アプリケーションがディスク上にあると期待しているデータが実際に書きだされなくてクラッシュが起こる可能性があるくらいです。 |
# zfs set sync=disabled <pool>/tmp |
# zfs set sync=disabled <pool>/tmp |
||
238行目: | 251行目: | ||
# zfs create -o setuid=off -o devices=off -o sync=disabled -o mountpoint=/tmp <pool>/tmp |
# zfs create -o setuid=off -o devices=off -o sync=disabled -o mountpoint=/tmp <pool>/tmp |
||
− | また、ZFS に {{ic|/tmp}} を配置するときは、[[ |
+ | また、ZFS に {{ic|/tmp}} を配置するときは、[[systemd]] の tmpfs による自動的な {{ic|/tmp}} をマスク (無効化) する必要があるので注意してください。そうしないと ZFS が起動時やインポート時にデータセットをマウントできなくなってしまいます: |
# systemctl mask tmp.mount |
# systemctl mask tmp.mount |
||
267行目: | 280行目: | ||
$ man zpool |
$ man zpool |
||
+ | |||
+ | === ネイティブ暗号化 === |
||
+ | ZFS のネイティブ暗号化は 0.7.0.r26 以上のバージョンから使うことができ {{AUR|zfs-linux-git}}, {{AUR|zfs-dkms-git}} などの開発ビルドのパッケージで利用できます。バージョン 0.7 はリリースされていますが、0.7.3 現在、安定版では機能は有効になっていないために開発ビルドが必要になります。{{ic|/usr/src/zfs-*/include/sys/fs/zfs.h}} の {{ic|ZFS_PROP_ENCRYPTION}} の定義をチェックすることで、インストールしている zfs で暗号化が使えるかどうか確認できます。 |
||
+ | |||
+ | * サポートされている暗号化オプション: {{ic|aes-128-ccm}}, {{ic|aes-192-ccm}}, {{ic|aes-256-ccm}}, {{ic|aes-128-gcm}}, {{ic|aes-192-gcm}}, {{ic|aes-256-gcm}}。暗号化が {{ic|on}} に設定されている場合、{{ic|aes-256-ccm}} が使われます。 |
||
+ | * サポートされているキーフォーマット: {{ic|passphrase}}, {{ic|raw}}, {{ic|hex}}。 |
||
+ | {{ic|-o pbkdf2iters <n>}} で PBKDF2 の繰り返しを指定することもできます (キーの復号化に時間がかかるようになります)。 |
||
+ | |||
+ | パスフレーズによるネイティブ暗号化を有効にしてデータセットを作成するには: |
||
+ | |||
+ | # zfs create -o encryption=on -o keyformat=passphrase <nameofzpool>/<nameofdataset> |
||
+ | |||
+ | パスフレーズの代わりにキーを使うには: |
||
+ | |||
+ | # dd if=/dev/urandom of=/path/to/key bs=1 count=32 |
||
+ | # zfs create -o encryption=on -o keyformat=raw -o keylocation=file:///path/to/key <nameofzpool>/<nameofdataset> |
||
+ | |||
+ | 手動でキーをロードしてから暗号化されたデータセットをマウントすることも可能です: |
||
+ | # zfs load-key <nameofzpool>/<nameofdataset> # load key for a specific dataset |
||
+ | # zfs load-key -a # load all keys |
||
+ | # zfs load-key -r zpool/dataset # load all keys in a dataset |
||
+ | |||
+ | 暗号化されたデータセットを含むプールをインポートすると、ZFS はデフォルトではデータセットを復号化しません。復号化するには {{ic|-l}} を使います: |
||
+ | # zpool import -l pool |
||
+ | |||
+ | systemd カスタムユニットを使うことで起動時に復号化を自動的に行うことができます。例: |
||
+ | {{hc|/etc/systemd/system/zfs-key@.service|2=<nowiki> |
||
+ | [Unit] |
||
+ | Description=Load storage encryption keys |
||
+ | Before=systemd-user-sessions.service |
||
+ | Before=zfs-mount.service |
||
+ | |||
+ | [Service] |
||
+ | Type=oneshot |
||
+ | RemainAfterExit=yes |
||
+ | ExecStart=/usr/bin/bash -c '/usr/bin/zfs load-key zpool/%i <<< $(systemd-ask-password "Encrypted storage password (%i): ")' |
||
+ | |||
+ | [Install] |
||
+ | WantedBy=zfs-mount.service |
||
+ | </nowiki>}} |
||
+ | 暗号化ボリュームを指定してサービスインスタンスを有効化してください: {{ic|# systemctl enable zfs-key@dataset}}。 |
||
+ | |||
+ | {{ic|systemd-user-sessions.service}} の {{ic|1=Before=}} によってローカル IO デバイスがシステム UI に移る前に {{ic|systemd-ask-password}} が呼び出されます。 |
||
=== スクラブ === |
=== スクラブ === |
||
310行目: | 366行目: | ||
プールをエクスポートするには: |
プールをエクスポートするには: |
||
− | # zpool export |
+ | # zpool export <pool> |
=== Zpool の名前を変更 === |
=== Zpool の名前を変更 === |
||
321行目: | 377行目: | ||
指定の zpool のマウントポイントは一つのコマンドで随意に移動することができます: |
指定の zpool のマウントポイントは一つのコマンドで随意に移動することができます: |
||
# zfs set mountpoint=/foo/bar poolname |
# zfs set mountpoint=/foo/bar poolname |
||
+ | |||
+ | === アクセス制御リスト === |
||
+ | ZFS プールで [[ACL]] を使うには: |
||
+ | |||
+ | # zfs set acltype=posixacl <nameofzpool>/<nameofdataset> |
||
+ | # zfs set xattr=sa <nameofzpool>/<nameofdataset> |
||
+ | |||
+ | パフォーマンス上の理由から {{ic|xattr}} を設定することが推奨されています [https://github.com/zfsonlinux/zfs/issues/170#issuecomment-27348094]。 |
||
=== スワップボリューム === |
=== スワップボリューム === |
||
− | ZFS ではスワップファイルを使うことはできませんが、ユーザーは ZFS ボリューム (ZVOL) をスワップとして利用することができます。ZVOL のブロックサイズをシステムページサイズと一致するように設定するのが重要です。システムページサイズは |
+ | ZFS ではスワップファイルを使うことはできませんが、ユーザーは ZFS ボリューム (ZVOL) をスワップとして利用することができます。ZVOL のブロックサイズをシステムページサイズと一致するように設定するのが重要です。システムページサイズは {{ic|getconf PAGESIZE}} コマンドで取得することができます (x86_64 でのデフォルトは 4KiB)。また、メモリが少ないシチュエーションでシステムを上手く動作させ続けるには zvol データのキャッシュを行わないほうが良いでしょう。 |
− | + | 8 GiB の zfs ボリュームを作成: |
|
# zfs create -V 8G -b $(getconf PAGESIZE) \ |
# zfs create -V 8G -b $(getconf PAGESIZE) \ |
||
+ | -o logbias=throughput -o sync=always\ |
||
-o primarycache=metadata \ |
-o primarycache=metadata \ |
||
-o com.sun:auto-snapshot=false <pool>/swap |
-o com.sun:auto-snapshot=false <pool>/swap |
||
335行目: | 400行目: | ||
# mkswap -f /dev/zvol/<pool>/swap |
# mkswap -f /dev/zvol/<pool>/swap |
||
− | # swapon /dev/zvol/ |
+ | # swapon /dev/zvol/<pool>/swap |
この設定を永続化させるには、{{ic|/etc/fstab}} を編集します。ZVOL は discard をサポートしており、ZFS のブロックアロケータの役に立ったり、スワップが満杯になったときに他のデータセットにおける断片化を減らすことができます。 |
この設定を永続化させるには、{{ic|/etc/fstab}} を編集します。ZVOL は discard をサポートしており、ZFS のブロックアロケータの役に立ったり、スワップが満杯になったときに他のデータセットにおける断片化を減らすことができます。 |
||
344行目: | 409行目: | ||
ハイバネートフックはファイルシステムよりも前にロードされる必要があり、ZVOL をスワップとして使うとハイバネート機能が使えなくなることを覚えておいて下さい。ハイバネートが必要な場合は、スワップ用のパーティションを取っておいて下さい。 |
ハイバネートフックはファイルシステムよりも前にロードされる必要があり、ZVOL をスワップとして使うとハイバネート機能が使えなくなることを覚えておいて下さい。ハイバネートが必要な場合は、スワップ用のパーティションを取っておいて下さい。 |
||
− | |||
− | マシンを再起動する前に ZFS ファイルシステムを全てアンマウントしてください。マウントされていると ZFS プールはインポートできません: |
||
− | # zfs umount -a |
||
=== 自動スナップショット === |
=== 自動スナップショット === |
||
355行目: | 417行目: | ||
データセットがスナップショットされないようにするには、データセットに {{ic|1=com.sun:auto-snapshot=false}} を設定してください。同じように、ラベルで細かい設定をすることができます。例えば、1ヶ月毎のスナップショットを作成しないようにするには {{ic|1=com.sun:auto-snapshot:monthly=false}} を設定します。 |
データセットがスナップショットされないようにするには、データセットに {{ic|1=com.sun:auto-snapshot=false}} を設定してください。同じように、ラベルで細かい設定をすることができます。例えば、1ヶ月毎のスナップショットを作成しないようにするには {{ic|1=com.sun:auto-snapshot:monthly=false}} を設定します。 |
||
+ | |||
+ | {{Note|zfs-auto-snapshot-git はスクラブ中にはスナップショットを作成しません ([[ZFS#スクラブ]]を参照)。元の systemd ユニットを編集して {{ic|ExecStart}} 行から {{ic|--skip-scrub}} を削除することでスクラブ中でもスナップショットを作成するように設定できます。[[Systemd#ユニットファイルの編集]]を見てください。}} |
||
==== ZFS スナップショットマネージャ ==== |
==== ZFS スナップショットマネージャ ==== |
||
392行目: | 456行目: | ||
zfs.zfs_arc_max=536870912 # (for 512MB) |
zfs.zfs_arc_max=536870912 # (for 512MB) |
||
− | 他の設定オプションや、より詳しい説明は [ |
+ | 他の設定オプションや、より詳しい説明は [https://wiki.gentoo.org/wiki/ZFS#ARC gentoo-wiki:zfs#arc] を見て下さい。 |
=== Does not contain an EFI label === |
=== Does not contain an EFI label === |
||
400行目: | 464行目: | ||
/dev/disk/by-id/<id> does not contain an EFI label but it may contain partition |
/dev/disk/by-id/<id> does not contain an EFI label but it may contain partition |
||
− | このエラーを打破するには zfs の create コマンドで |
+ | このエラーを打破するには zfs の create コマンドで {{ic|-f}} を使って下さい。 |
=== No hostid found === |
=== No hostid found === |
||
408行目: | 472行目: | ||
ZFS: No hostid found on kernel command line or /etc/hostid. |
ZFS: No hostid found on kernel command line or /etc/hostid. |
||
− | この警告は ZFS モジュールが spl hosted にアクセスできないのが原因です。この問題には2つの解決方法があります。一つはブートローダーの[[カーネルパラメータ]]に spl hostid を記述することです。例えば、 |
+ | この警告は ZFS モジュールが spl hosted にアクセスできないのが原因です。この問題には2つの解決方法があります。一つはブートローダーの[[カーネルパラメータ]]に spl hostid を記述することです。例えば、{{ic|1=spl.spl_hostid=0x00bab10c}} を追加します。 |
− | もう一つの解決方法は |
+ | もう一つの解決方法は {{ic|/etc/hostid}} に hostid があることを確認して、initramfs イメージを再生成することです。それによって hostid 情報が initramfs イメージにコピーされます。 |
# mkinitcpio -p linux |
# mkinitcpio -p linux |
||
+ | |||
+ | === SAS/SCSI デバイスからの起動中にプールが見つかりません === |
||
+ | |||
+ | SAS/SCSI ベースでブートしている場合、ブートしようとしているプールが見つからないというブートの問題が発生することがあります。この原因として考えられるのは、デバイスの初期化がプロセスの中で遅すぎることです。これは、zfs がプールを組み立てようとする時点でデバイスを見つけることができないことを意味します。 |
||
+ | |||
+ | この場合、続行する前に、デバイスがオンラインになるまで SCSI ドライバーを強制的に待機させる必要があります。これを {{ic|/etc/modprobe.d/zfs.conf}} に記述します。 |
||
+ | |||
+ | {{hc|1=/etc/modprobe.d/zfs.conf|2= |
||
+ | options scsi_mod scan=sync |
||
+ | }} |
||
+ | |||
+ | その後、[[mkinitcpio#イメージ作成とアクティベーション|initramfs を再生成]] |
||
+ | |||
+ | これが機能するのは、zfs フックが {{ic|/etc/modprobe.d/zfs.conf}} にあるファイルを initcpio にコピーし、ビルド時に使用されるためです。 |
||
=== 起動時に zfs プールがマウントされない: "pool may be in use from other system" === |
=== 起動時に zfs プールがマウントされない: "pool may be in use from other system" === |
||
448行目: | 526行目: | ||
0a0af0f8 |
0a0af0f8 |
||
− | この数字を {{ic|spl.spl_hostid= |
+ | この数字を {{ic|spl.spl_hostid=0x0a0af0f8}} のようにして [[カーネルパラメータ]] に追加してください。もう一つの解決方法は hostid を initram イメージの中に書き出すことです。この方法については [[ZFS に Arch Linux をインストール#最初に起動した後|インストールガイド]] の説明を見て下さい。 |
− | [[カーネルパラメータ]]に {{ic|zfs_force=1}} を追加することでチェックを常に無視することができます。ただし恒久的に使用するのは推奨されません。 |
+ | [[カーネルパラメータ]] に {{ic|zfs_force=1}} を追加することでチェックを常に無視することができます。ただし恒久的に使用するのは推奨されません。 |
=== デバイスのセクタアライメントが異なっている === |
=== デバイスのセクタアライメントが異なっている === |
||
464行目: | 542行目: | ||
ZFS は ashift オプションを使って物理ブロックサイズを調整しています。故障したディスクを置き換えるとき、ZFS は {{ic|<nowiki>ashift=12</nowiki>}} を使用しますが、故障したディスクの ashift が異なっている (例えば {{ic|<nowiki>ashift=9</nowiki>}}) 場合、結果としてこのエラーが起こってしまいます。 |
ZFS は ashift オプションを使って物理ブロックサイズを調整しています。故障したディスクを置き換えるとき、ZFS は {{ic|<nowiki>ashift=12</nowiki>}} を使用しますが、故障したディスクの ashift が異なっている (例えば {{ic|<nowiki>ashift=9</nowiki>}}) 場合、結果としてこのエラーが起こってしまいます。 |
||
− | ブロックサイズが 4KB の Advanced Format ディスクの場合、一番良いパフォーマンスを出すため ashift は 12 が推奨されます。[ |
+ | ブロックサイズが 4KB の Advanced Format ディスクの場合、一番良いパフォーマンスを出すため ashift は 12 が推奨されます。[https://github.com/zfsonlinux/zfs/wiki/faq#performance-considerations 1.10 What’s going on with performance?] や [http://wiki.illumos.org/display/illumos/ZFS+and+Advanced+Format+disks ZFS and Advanced Format disks] を見て下さい。 |
zpool の ashift を確認するには zdb を使います: {{ic|<nowiki>zdb | grep ashift</nowiki>}}。 |
zpool の ashift を確認するには zdb を使います: {{ic|<nowiki>zdb | grep ashift</nowiki>}}。 |
||
497行目: | 575行目: | ||
errors: No known data errors}} |
errors: No known data errors}} |
||
+ | === プールの再同期が停止/再起動/遅いですか? === |
||
− | == Tips and tricks == |
||
+ | |||
+ | ZFSonLinux github によると、これは 2012 年以降の ZFS-ZED の既知の問題で、再同期化プロセスが常に再起動し、場合によってはスタックし、一部のハードウェアでは一般的に遅くなります。最も簡単な軽減策は、再同期が完了するまで zfs-zed.service を停止することです。 |
||
+ | |||
+ | === initramfs zpool.cache 内の使用できないプールのインポートの失敗によって引き起こされる起動の遅さを修正しました。 === |
||
+ | |||
+ | 永続的に接続されていない追加のプールがインポートされているときに intramfs を更新すると (カーネル更新の実行時など)、起動時間が大幅に影響を受ける可能性があります。これは、これらのプールが initramfs zpool.cache に追加され、ZFS がこれらのプールをインポートしようとするためです。エクスポートしたり、通常の zpool.cache から削除したりしたかどうかに関係なく、ブートごとに追加のプールが作成されます。 |
||
+ | |||
+ | ZFS が起動時に使用できないプールをインポートしようとしていることに気付いた場合は、まず次のコマンドを実行します。 |
||
+ | |||
+ | $ zdb -C |
||
+ | |||
+ | 起動時にインポートしたくないプールがないか zpool.cache を確認します。このコマンドで、現在使用できない追加のプールが表示される場合は、次のコマンドを実行します。 |
||
+ | |||
+ | # zpool set cachefile=/etc/zfs/zpool.cache zroot |
||
+ | |||
+ | zroot という名前のプール以外のプールの zpool.cache をクリアします。場合によっては、zpool.cache を更新する必要がなく、代わりに [[mkinitcpio#イメージ作成とアクティベーション|initramfs を再生成]] するだけで済みます。 |
||
+ | |||
+ | === ZFS コマンド履歴 === |
||
+ | |||
+ | ZFS は、プールの構造への変更を、実行されたコマンドのログとしてリングバッファーにネイティブに記録します (これをオフにすることはできません) |
||
+ | ログは、劣化したプールまたは障害が発生したプールを復元するときに役立つ場合があります。 |
||
+ | |||
+ | {{hc|# zpool history zpool|<nowiki> |
||
+ | History for 'zpool': |
||
+ | 2023-02-19.16:28:44 zpool create zpool raidz1 /scratch/disk_1.img /scratch/disk_2.img /scratch/disk_3.img |
||
+ | 2023-02-19.16:31:29 zfs set compression=lz4 zpool |
||
+ | 2023-02-19.16:41:45 zpool scrub zpool |
||
+ | 2023-02-19.17:00:57 zpool replace zpool /scratch/disk_1.img /scratch/bigger_disk_1.img |
||
+ | 2023-02-19.17:01:34 zpool scrub zpool |
||
+ | 2023-02-19.17:01:42 zpool replace zpool /scratch/disk_2.img /scratch/bigger_disk_2.img |
||
+ | 2023-02-19.17:01:46 zpool replace zpool /scratch/disk_3.img /scratch/bigger_disk_3.img |
||
+ | </nowiki>}} |
||
+ | |||
+ | == ヒントとテクニック == |
||
===archzfs パッケージを archiso に埋め込む=== |
===archzfs パッケージを archiso に埋め込む=== |
||
511行目: | 623行目: | ||
{{ic|packages.x86_64}} ファイルを編集して以下の行を追加: |
{{ic|packages.x86_64}} ファイルを編集して以下の行を追加: |
||
− | spl-utils-git |
+ | spl-utils-linux-git |
− | spl-git |
+ | spl-linux-git |
− | zfs-utils-git |
+ | zfs-utils-linux-git |
− | zfs-git |
+ | zfs-linux-git |
− | {{ic|pacman.conf}} ファイルを編集して以下の行を追加 |
+ | {{ic|pacman.conf}} ファイルを編集して以下の行を追加: |
+ | [archzfs] |
||
− | [demz-repo-archiso] |
||
SigLevel = Never |
SigLevel = Never |
||
− | Server = <nowiki>http:// |
+ | Server = <nowiki>http://archzfs.com/$repo/x86_64</nowiki> |
必要であれば他のパッケージも {{ic|packages.both}}, {{ic|packages.i686}}, {{ic|packages.x86_64}} に追加してイメージを作成します。 |
必要であれば他のパッケージも {{ic|packages.both}}, {{ic|packages.i686}}, {{ic|packages.x86_64}} に追加してイメージを作成します。 |
||
526行目: | 638行目: | ||
イメージは {{ic|/root/media/out}} ディレクトリにできます。 |
イメージは {{ic|/root/media/out}} ディレクトリにできます。 |
||
− | プロセスの詳細は [http://kroweer.wordpress.com/2011/09/07/creating-a-custom-arch-linux-live-usb/ このガイド] や [[ |
+ | プロセスの詳細は [http://kroweer.wordpress.com/2011/09/07/creating-a-custom-arch-linux-live-usb/ このガイド] や [[Archiso]] の記事で読めます。 |
− | UEFI 環境にインストールする場合は、[[ |
+ | UEFI 環境にインストールする場合は、[[Unified Extensible Firmware Interface#ISO から UEFI ブータブル USB を作成する]] を見て UEFI に対応するインストールメディアを作成してください。 |
− | === ZFS on |
+ | === ZFS on Linux で暗号化 === |
− | ZFS on |
+ | ZFS on Linux の安定版は直接暗号化をサポートしていませんが、zpool を dm-crypt ブロックデバイスの中に作成することができます。zpool は平文の抽象レイヤー上に作成されるので、重複排除や圧縮、データの堅牢性といった ZFS の利点を全て活かしながらデータを暗号化することが可能です。 |
dm-crypt (LUKS) は {{ic|/dev/mapper}} にデバイスを作成し、デバイスの名前は固定されます。そのため、{{ic|zpool create}} コマンドを変更してその名前を使う必要があります。{{ic|/dev/mapper}} ブロックデバイスを作成してそこから zpool をインポートするようにシステムを設定することが狙いです。zpool は複数のデバイスに作成することができるので (raid, mirroring, striping, ...)、全てのデバイスを暗号化するのが重要です。そうしないと保護が部分的に欠ける恐れがあります。 |
dm-crypt (LUKS) は {{ic|/dev/mapper}} にデバイスを作成し、デバイスの名前は固定されます。そのため、{{ic|zpool create}} コマンドを変更してその名前を使う必要があります。{{ic|/dev/mapper}} ブロックデバイスを作成してそこから zpool をインポートするようにシステムを設定することが狙いです。zpool は複数のデバイスに作成することができるので (raid, mirroring, striping, ...)、全てのデバイスを暗号化するのが重要です。そうしないと保護が部分的に欠ける恐れがあります。 |
||
552行目: | 664行目: | ||
例えばホームを暗号化するには: (暗号化とログインの2つのパスワードは同じである必要があります) |
例えばホームを暗号化するには: (暗号化とログインの2つのパスワードは同じである必要があります) |
||
− | # zfs create -o compression=off |
+ | # zfs create -o compression=off -o dedup=off -o mountpoint=/home/<username> <zpool>/<username> |
− | -o dedup=off \ |
||
− | -o mountpoint=/home/<username> \ |
||
− | <zpool>/<username> |
||
# useradd -m <username> |
# useradd -m <username> |
||
# passwd <username> |
# passwd <username> |
||
585行目: | 694行目: | ||
{{hc|/etc/pacman.conf|<nowiki> |
{{hc|/etc/pacman.conf|<nowiki> |
||
+ | [archzfs] |
||
− | [demz-repo-archiso] |
||
− | Server = http:// |
+ | Server = http://archzfs.com/$repo/x86_64</nowiki>}} |
pacman パッケージデータベースを同期: |
pacman パッケージデータベースを同期: |
||
598行目: | 707行目: | ||
ZFS パッケージグループをインストール: |
ZFS パッケージグループをインストール: |
||
− | # pacman -S archzfs- |
+ | # pacman -S archzfs-linux |
ZFS カーネルモジュールをロード: |
ZFS カーネルモジュールをロード: |
||
622行目: | 731行目: | ||
# uname -r |
# uname -r |
||
− | uname は archiso のカーネルバージョンを表示します。バージョンが異なる場合、chroot 環境の適切なカーネルバージョンで depmod を (chroot の中で) 実行してください: |
+ | uname は archiso のカーネルバージョンを表示します。バージョンが異なる場合、chroot 環境の適切なカーネルバージョンで depmod を (chroot の中で) 実行してください (バージョンは {{ic|pacman -Qi linux}} で確認できます): |
− | # depmod -a 3.6.9-1-ARCH |
+ | # depmod -a 3.6.9-1-ARCH |
これで chroot 環境にインストールされているカーネルバージョンに合ったカーネルモジュールがロードされます。 |
これで chroot 環境にインストールされているカーネルバージョンに合ったカーネルモジュールがロードされます。 |
||
633行目: | 742行目: | ||
エラーは起こらないはずです。 |
エラーは起こらないはずです。 |
||
+ | |||
+ | === バインドマウント === |
||
+ | 以下では {{ic|/mnt/zfspool}} から {{ic|/srv/nfs4/music}} へのバインドマウントを作成します。バインドマウントを作成する前に zfs プールの準備ができていることを確認してください。 |
||
+ | |||
+ | ==== fstab ==== |
||
+ | [https://www.freedesktop.org/software/systemd/man/systemd-fstab-generator.html systemd-fstab-generator] を使って systemd が fstab を mount ユニットファイルにどうやって変換するのかは [https://www.freedesktop.org/software/systemd/man/systemd.mount.html systemd.mount] を見てください。 |
||
+ | |||
+ | {{hc|/etc/fstab|<nowiki> |
||
+ | /mnt/zfspool /srv/nfs4/music none bind,defaults,nofail,x-systemd.requires=zfs-mount.service 0 0 |
||
+ | </nowiki>}} |
||
+ | |||
+ | === モニタリングやイベント時にメール === |
||
+ | 詳しくは [https://ramsdenj.com/2016/08/29/arch-linux-on-zfs-part-3-followup.html ZED: The ZFS Event Daemon] を見てください。 |
||
+ | |||
+ | メールを送信するには [[msmtp]] などのメールフォワーダが必要です。動作することを確認してください。 |
||
+ | |||
+ | 設定ファイルで以下の行をアンコメント: |
||
+ | |||
+ | {{hc|/etc/zfs/zed.d/zed.rc|<nowiki> |
||
+ | ZED_EMAIL_ADDR="root" |
||
+ | ZED_EMAIL_PROG="mail" |
||
+ | ZED_NOTIFY_VERBOSE=0 |
||
+ | ZED_EMAIL_OPTS="-s '@SUBJECT@' @ADDRESS@" |
||
+ | </nowiki>}} |
||
+ | |||
+ | {{ic|1=ZED_EMAIL_ADDR="root"}} の 'root' は通知を受信したいメールアドレスに置き換えてください。 |
||
+ | |||
+ | プールの状態に関わらずメールを受信したい場合は {{ic|1=ZED_NOTIFY_VERBOSE=1}} と設定すると良いでしょう。 |
||
+ | |||
+ | 設定したら {{ic|zfs-zed.service}} を起動・有効化してください。 |
||
+ | |||
+ | verbose を 1 に設定したら、スクラブを実行することでテストできます。 |
||
== 参照 == |
== 参照 == |
||
+ | * [https://pthree.org/2012/12/04/zfs-administration-part-i-vdevs/ Aaron Toponce による ZFS に関する17のブログ記事] |
||
− | * [[Installing Arch Linux on ZFS|ZFS に Arch Linux をインストール]] |
||
* [http://zfsonlinux.org/ ZFS on Linux] |
* [http://zfsonlinux.org/ ZFS on Linux] |
||
− | * [ |
+ | * [https://github.com/zfsonlinux/zfs/wiki/faq ZFS on Linux FAQ] |
− | * [ |
+ | * [https://www.freebsd.org/doc/en_US.ISO8859-1/books/handbook/zfs.html FreeBSD ハンドブック -- The Z File System] |
− | * [ |
+ | * [https://docs.oracle.com/cd/E19253-01/819-6260/ Oracle Solaris ZFS 管理ガイド] |
− | * [http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide Solaris Internals -- ZFS |
+ | * [http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide Solaris Internals -- ZFS トラブルシューティングガイド] |
− | * [http://royal.pingdom.com/2013/06/04/zfs-backup/ |
+ | * [http://royal.pingdom.com/2013/06/04/zfs-backup/ ZFS を使って毎日 5TB の MySQL のデータをバックアップする Pingdom の例] |
+ | * [https://www.linuxquestions.org/questions/linux-from-scratch-13/%5Bhow-to%5D-add-zfs-to-the-linux-kernel-4175514510/ カスタムカーネルにモジュールを追加するチュートリアル] |
||
− | |||
− | ; Aaron Toponce は ZFS に関する17部からなるブログ記事を執筆しています。素晴らしい読み物です。 |
||
− | # [https://pthree.org/2012/12/04/zfs-administration-part-i-vdevs/ VDEVs] |
||
− | # [https://pthree.org/2012/12/05/zfs-administration-part-ii-raidz/ RAIDZ Levels] |
||
− | # [https://pthree.org/2012/12/06/zfs-administration-part-iii-the-zfs-intent-log/ The ZFS Intent Log] |
||
− | # [https://pthree.org/2012/12/07/zfs-administration-part-iv-the-adjustable-replacement-cache/ The ARC] |
||
− | # [https://pthree.org/2012/12/10/zfs-administration-part-v-exporting-and-importing-zpools/ Import/export zpools] |
||
− | # [https://pthree.org/2012/12/11/zfs-administration-part-vi-scrub-and-resilver/ Scrub and Resilver] |
||
− | # [https://pthree.org/2012/12/12/zfs-administration-part-vii-zpool-properties/ Zpool Properties] |
||
− | # [https://pthree.org/2012/12/13/zfs-administration-part-viii-zpool-best-practices-and-caveats/ Zpool Best Practices] |
||
− | # [https://pthree.org/2012/12/14/zfs-administration-part-ix-copy-on-write/ Copy on Write] |
||
− | # [https://pthree.org/2012/12/17/zfs-administration-part-x-creating-filesystems/ Creating Filesystems] |
||
− | # [https://pthree.org/2012/12/18/zfs-administration-part-xi-compression-and-deduplication/ Compression and Deduplication] |
||
− | # [https://pthree.org/2012/12/19/zfs-administration-part-xii-snapshots-and-clones/ Snapshots and Clones] |
||
− | # [https://pthree.org/2012/12/20/zfs-administration-part-xiii-sending-and-receiving-filesystems/ Send/receive Filesystems] |
||
− | # [https://pthree.org/2012/12/21/zfs-administration-part-xiv-zvols/ ZVOLs] |
||
− | # [https://pthree.org/2012/12/31/zfs-administration-part-xv-iscsi-nfs-and-samba/ iSCSI, NFS, and Samba] |
||
− | # [https://pthree.org/2013/01/02/zfs-administration-part-xvi-getting-and-setting-properties/ Get/Set Properties] |
||
− | # [https://pthree.org/2013/01/03/zfs-administration-part-xvii-best-practices-and-caveats/ ZFS Best Practices] |
2023年6月6日 (火) 21:23時点における最新版
ZFS は (現在は Oracle によって吸収合併された) Sun Microsystems によって作成された先進的なファイルシステムで、2005年11月に OpenSolaris でリリースされました。ZFS には以下の機能があります: ストレージプール (統合ボリューム管理 -- zpool), Copy-on-write, スナップショット, データ整合性のチェックと自動修復 (スクラブ), RAID-Z, 最大16エクサバイトのファイルサイズ、最大256ゼタバイトのボリュームサイズ。ファイルシステム (データセット) やファイルの数は無制限です [1]。ZFS は Common Development and Distribution License (CDDL) でライセンスされています。
"The last word in filesystems" では ZFS は安定していて高速、セキュアで、そして将来性を考えた設計をしていると述べられています。ライセンスが CDDL で、GPL と互換がないため、ZFS は Linux カーネルと一緒に配布することができません。しかしながら、サードパーティによってネイティブの Linux カーネルモジュールを開発・配布することは可能です。それが ZFSonLinux (ZOL) になります。
ZOL はローレンス・リバモア国立研究所による後押しを受けているプロジェクトで、その大規模なストレージ要件とスーパーコンピュータに合うようなネイティブの Linux カーネルモジュールを開発することを目標としています。
目次
- 1 インストール
- 2 ZFS の実験
- 3 設定
- 4 ストレージプールの作成
- 5 チューニング
- 6 使用方法
- 7 トラブルシューティング
- 7.1 ZPool の作成が失敗する
- 7.2 ZFS の使用 RAM が多すぎる
- 7.3 Does not contain an EFI label
- 7.4 No hostid found
- 7.5 SAS/SCSI デバイスからの起動中にプールが見つかりません
- 7.6 起動時に zfs プールがマウントされない: "pool may be in use from other system"
- 7.7 デバイスのセクタアライメントが異なっている
- 7.8 プールの再同期が停止/再起動/遅いですか?
- 7.9 initramfs zpool.cache 内の使用できないプールのインポートの失敗によって引き起こされる起動の遅さを修正しました。
- 7.10 ZFS コマンド履歴
- 8 ヒントとテクニック
- 9 参照
インストール
一般
Arch User Repository または archzfs リポジトリから以下のパッケージのどれかをインストールしてください:
- zfs-linuxAUR - 安定版のリリース [3]。
- zfs-linux-gitAUR - 開発版のリリース (新しいバージョンのカーネルをサポート) [4]。
- zfs-linux-ltsAUR - LTS カーネル用の安定版リリース。
- zfs-linux-lts-gitAUR - LTS カーネル用の 開発版 リリース
- zfs-linux-hardenedAUR - hardened カーネル用の安定版リリース。
- zfs-linux-hardened-gitAUR - hardened カーネル用の 開発版 リリース。
- zfs-linux-zenAUR - zen カーネル用の安定版リリース。
- zfs-linux-zen-gitAUR - zen カーネル用の 開発版 リリース。
- zfs-dkmsAUR - ダイナミックカーネルモジュールをサポートしているバージョン。
- zfs-dkms-gitAUR - ダイナミックカーネルモジュールをサポートしている 開発版 リリース。
上記のパッケージにはそれぞれ zfs-utils
, spl
, spl-utils
パッケージに依存しています。SPL (Solaris Porting Layer) は ZFS を使用するために Solaris の API を実装する Linux カーネルモジュールです。
パッケージをインストールしたらコマンドラインで zpool status
を実行してテストしてください。"insmod" エラーが表示される場合、depmod -a
を試してみてください。
Root on ZFS
こちらを参照 ZFS に Arch Linux をインストール#インストール
DKMS
ユーザーは DKMS を利用して、カーネルのアップグレードごとに ZFS モジュールを自動的に再構築できます。
zfs-dkmsAUR または zfs-dkms-gitAUR をインストールします。
ZFS の実験
~/zfs0.img
~/zfs1.img
~/zfs2.img
などのシンプルなファイルの仮想ブロックデバイス (ZFS では VDEV と呼称) を使って、データを消失する危険性なく、ZFS の実験を行いたいユーザーは ZFS/仮想ディスクの記事を見て下さい。RAIDZ アレイの作成や、意図的にデータを破損させてそれを復元したり、データセットのスナップショットなどの一般的な作業を取り扱っています。
設定
ZFS は、その作成者によって "管理不要" のファイルシステムとみなされています。したがって、ZFS の構成は非常に簡単です。設定は主に、zfs
と zpool
の 2 つのコマンドで行われます。
自動起動
ZFS を"ゼロアドミニストレーション"の名に負うように使うには、zfs デーモンを起動時にロードする必要があります。このため /etc/fstab
で zpool をマウントする必要はありません。zfs デーモンが自動的に zfs プールをインポートしてマウントを行います。デーモンは /etc/zfs/zpool.cache
ファイルを読み込んで zfs プールをマウントします。
zfs デーモンによって自動でマウントしたいプール毎に次を実行:
# zpool set cachefile=/etc/zfs/zpool.cache <pool>
関連するサービスを 有効化 (zfs-import-cache.service
) とターゲット (zfs.target
および zfs-import.target
) プールは起動時に自動的にインポートされます。
ZFS ファイルシステムをマウントするには、次の 2 つの選択肢があります。
- zfs-mount.service を有効にします
- zfs-mount-generator を使用する
zfs-mount.service の使用
起動時に ZFS ファイルシステムを自動的にマウントするには、zfs-mount.service
と zfs.target
を 有効化 する必要があります。
zfs-mount-generator の使用
zfs-mount-generator を使用して、起動時に ZFS ファイルシステムの systemd マウント ユニットを作成することもできます。systemd は、zfs-mount.service
を使用せずに、マウント ユニットに基づいてファイルシステムを自動的にマウントします。そのためには、次のことを行う必要があります。
/etc/zfs/zfs-list.cache
ディレクトリを作成します。- マウント可能な ZFS ファイルシステムのリストを作成するために必要な ZFS イベント デーモン (ZED) スクリプト (ZEDLET と呼ばれる) を有効にします。(このリンクは、OpenZFS 2.0.0 以上を使用している場合に自動的に作成されます。)
# ln -s /usr/lib/zfs/zed.d/history_event-zfs-list-cacher.sh /etc/zfs /zed.d
- 有効化
zfs.target
および 起動/有効化 ZFS イベントデーモン (zfs-zed.service
) このサービスは、前のステップでスクリプトを実行する役割を果たします。 /etc/zfs/zfs-list.cache
にプールにちなんだ名前の空のファイルを作成する必要があります。ZEDLET は、プールのファイルがすでに存在する場合にのみファイルシステムのリストを更新します。# touch /etc/zfs/zfs-list.cache/<プール名>
/etc/zfs/zfs-list.cache/<プール名>
の内容を確認します。空の場合は、zfs-zed.service
が実行されていることを確認し、次を実行して ZFS ファイルシステムのいずれかの canmount プロパティを変更します: {{bc|1=zfs set canmount=off zroot/この変更により、ZFS は ZED によってキャプチャされるイベントを発生させ、ZEDLET を実行して/etc/zfs/zfs-list.cache
内のファイルを更新します。/etc/zfs/zfs-list.cache
内のファイルが更新された場合は、次のコマンドを実行してファイルシステムのcanmount
プロパティを設定し直すことができます:zfs set canmount=on zroot/fs1
システム内の ZFS プールごとに、/etc/zfs/zfs-list.cache
にファイルを追加する必要があります。zfs-import-cache.service
と zfs-import.target
を 上で説明 として有効にして、プールがインポートされていることを確認します。
ストレージプールの作成
利用できるドライブの一覧を見るには # parted --list
を使います。zfs ファイルシステムを作成する前にドライブをパーティションする必要はありません、推奨もされていません。
ドライブの一覧を確認できたら、次は zpool を追加するドライブの id を取得します。10デバイス以下の ZFS ストレージプールを作成する際はデバイス id を使うことを zfs on Linux の開発者は推奨しています。id を調べるには:
# ls -lh /dev/disk/by-id/
id は以下のように表示されます:
lrwxrwxrwx 1 root root 9 Aug 12 16:26 ata-ST3000DM001-9YN166_S1F0JKRR -> ../../sdc lrwxrwxrwx 1 root root 9 Aug 12 16:26 ata-ST3000DM001-9YN166_S1F0JTM1 -> ../../sde lrwxrwxrwx 1 root root 9 Aug 12 16:26 ata-ST3000DM001-9YN166_S1F0KBP8 -> ../../sdd lrwxrwxrwx 1 root root 9 Aug 12 16:26 ata-ST3000DM001-9YN166_S1F0KDGY -> ../../sdb
そして、いよいよ ZFS プールを作成します:
# zpool create -f -m <mount> <pool> raidz <ids>
- create: プールを作成するサブコマンド。
- -f: 強制的にプールを作成する。"EFI label error" を無視します。#Does not contain an EFI label を見て下さい。
- -m: プールのマウントポイント。指定されない場合、プールは
/<pool>
にマウントされます。
- pool: プールの名前。
- raidz: デバイスのプールから作成される仮想デバイスのタイプ。Raidz は raid5 の特殊な実装です。raiz に関する詳細は Jeff Bonwick's Blog -- RAID-Z を見て下さい。RAID-1 を使用する場合は代わりに mirror を使用したほうが良いでしょう [5]。
- ids: プールに含まれるドライブまたはパーティションの名前。
/dev/disk/by-id
で取得。
完全なコマンドは以下のようになります:
# zpool create -f -m /mnt/data bigdata raidz ata-ST3000DM001-9YN166_S1F0KDGY ata-ST3000DM001-9YN166_S1F0JKRR ata-ST3000DM001-9YN166_S1F0KBP8 ata-ST3000DM001-9YN166_S1F0JTM1
Advanced Format ディスク
セクターサイズが512バイトではなく4096バイトの Advanced Format ディスクを使用する場合、レガシーなシステムとの後方互換性のため ZFS のセクターサイズ自動検出アルゴリズムが512バイトと検出して、パフォーマンスが落ちてしまうことがあります。正しいセクターサイズが使われるように、ashift=12
オプションを使用して下さい (ZFS on Linux FAQ を参照)。この場合の完全なコマンドは以下の通りになります:
# zpool create -f -o ashift=12 -m /mnt/data bigdata raidz ata-ST3000DM001-9YN166_S1F0KDGY ata-ST3000DM001-9YN166_S1F0JKRR ata-ST3000DM001-9YN166_S1F0KBP8 ata-ST3000DM001-9YN166_S1F0JTM1
プールの作成の確認
コマンドが成功しても、何も出力はされません。$ mount
コマンドを使うことでプールがマウントされているかどうか表示できます。# zpool status
を使えばプールが作成されたか表示されます。
# zpool status
pool: bigdata state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM bigdata ONLINE 0 0 0 -0 ONLINE 0 0 0 ata-ST3000DM001-9YN166_S1F0KDGY-part1 ONLINE 0 0 0 ata-ST3000DM001-9YN166_S1F0JKRR-part1 ONLINE 0 0 0 ata-ST3000DM001-9YN166_S1F0KBP8-part1 ONLINE 0 0 0 ata-ST3000DM001-9YN166_S1F0JTM1-part1 ONLINE 0 0 0 errors: No known data errors
この段階で、起動時に ZFS プールがマウントされるか確認するためにマシンを再起動すると良いでしょう。データを移し替える前に全てのエラーに対処するのがベストです。
GRUB 互換のプールを作成する
zpool はプールの全ての機能を有効にします。/boot
を ZFS 上に配置して GRUB を使用する場合、GRUB によってサポートされている機能だけを有効にしてください。そうしないと GRUB がプールを読み込むことができなくなります。GRUB 2.02 は lz4_compress
, hole_birth
, embedded_data
, extensible_dataset
, large_blocks
をサポートしています。これは ZFSonLinux 0.7.1 の全ての機能ではないため、サポートされていない機能は無効化する必要があります。
未対応の機能を無効化してプールを作成するには:
# zpool create -o feature@multi_vdev_crash_dump=disabled \ -o feature@large_dnode=disabled \ -o feature@sha512=disabled \ -o feature@skein=disabled \ -o feature@edonr=disabled \ $POOL_NAME $VDEVS
ZFS on Linux の git 版を使う場合は -o feature@encryption=disabled
も追加してください。
チューニング
一般
zfs ファイルシステムでは多数のパラメータを使うことができます。パラメータの完全なリストは zfs get all <pool>
で見ることが可能です。調整するパラメータとしては atime と compression が一般的です。
atime はデフォルトで有効にされていますが、ほとんどのユーザーにとっては zpool に余分な書き込みになります。zfs コマンドを使うことで atime を無効にできます:
# zfs set atime=off <pool>
atime を完全にオフにする代わりとして、relatime を使うこともできます。ext4/xfs のデフォルトの atime の処理と同じで、変更日時が更新されたとき、または24時間で一度もアクセス日時が更新されなかった場合にのみ、ファイルのアクセス日時が更新されます。atime=off と atime=on の折衷案になります。このプロパティは atime が on になっているときだけ適用されます:
# zfs set relatime=on <pool>
compression はつまり、データの透過圧縮です。ZFS は様々なアルゴリズムに対応しており、現在は lz4 はデフォルトです。あまり書き込みを行わないようなデータなら gzip を有効にすることで高い圧縮率を実現できます。詳しくは man ページを読んでください。zfs コマンドを使って圧縮を有効にするには:
# zfs set compression=lz4 <pool>
また、zfs コマンドを使うことで zfs の他のオプションを表示できます:
# zfs get all <pool>
SSD キャッシュ
SSD デバイスを書き込みインテントログ (ZIL または SLOG) として追加して l2arc (layer 2 adaptive replacement cache) として使うことができます。手順は新しい VDEV を作成するのと似ています。以下のコマンドで使用する <device-id> は ls -lh /dev/disk/by-id/
で確認できます。
ZIL を追加するには:
# zpool add <pool> log <device-id>
またはミラー ZIL を追加するには:
# zpool add <pool> log mirror <device-id-1> <device-id-2>
l2arc を追加するには:
# zpool add <pool> cache <device-id>
またはミラー l2arc を追加するには:
# zpool add <pool> cache mirror <device-id-1> <device-id-2>
データベース
ZFS は他のファイルシステムとは異なり、(一般的にはブロックサイズと呼ばれる) レコードサイズを変えることができます。デフォルトでは、ZFS のレコードサイズは 128KiB で、書き込むファイルのサイズにあわせて 512B から 128KiB までのサイズのブロックを動的に割り当てます。数バイトの書き込みの時でも新規に 128KiB のブロックを割り当てなくてはならないという代償を払って、断片化やファイルアクセスが補助されます。
ほとんどの RDBMS はデフォルトで 8KiB サイズのブロックで動作します。MySQL/MariaDB, PostgreSQL, Oracle のブロックサイズは調整することできますが、デフォルトのブロックサイズは3つとも 8KiB を使っています。パフォーマンスの影響を考え、また、(バックアップ用の) スナップショットの差異を最小限にするために、以下のようなコマンドを使って ZFS をデータベースに適応するよう設定するのが望ましいでしょう:
# zfs set recordsize=8K <pool>/postgres
これらの RDBMS にはそれぞれ独自のキャッシュアルゴリズムが実装されており、大抵は ZFS の ARC と同じようなメカニズムです。メモリの節約の観点から、ZFS によるデータベースのファイルデータのキャッシュを無効にして、キャッシュについてはデータベースに任せるのが良いでしょう:
# zfs set primarycache=metadata <pool>/postgres
プールにログデバイスが設定されていない場合、ZFS はインテントログ (ZIL) のためにプールのデータディスク上に領域を取っておきます。ZFS はクラッシュからのリカバリの際にこのスペースを使いますが、データベースは大抵トランザクションがコミットされるたびにデータファイルをファイルシステムに同期させます。この結果 ZFS が二回データをデータディスクに引き渡すことになるので、パフォーマンスにかなり影響が出てしまう可能性があります。ZFS が ZIL を使わないように設定することができ、この場合は、データがファイルシステムに渡されるのは一度だけになります。データベース以外のファイルシステムや、ログデバイスが設定されているプールでこの設定を行うと、逆にパフォーマンスが下がってしまうことになるので、注意してください:
# zfs set logbias=throughput <pool>/postgres
ファイルシステムの作成時に以上の設定を行うこともできます、例えば:
# zfs create -o recordsize=8K \ -o primarycache=metadata \ -o mountpoint=/var/lib/postgres \ -o logbias=throughput \ <pool>/postgres
/tmp
ZFS を使って /tmp
ディレクトリを保存したい場合、ファイルシステムの同期を無効にすることで /tmp
への書き込みを行うアプリケーションのパフォーマンスを向上させることがあります。これによって ZFS はアプリケーションの同期リクエスト (例: fsync
や O_SYNC
) を無視して、すぐに戻るようになります。アプリケーションサイドのデータの一貫性を保つのが難しくなる一方 (データベースで同期を無効化してはいけません)、/tmp
のファイルはあまり重要でないことが多いため、影響は限られます。ZFS 自体の整合性には影響を与えないので注意してください。アプリケーションがディスク上にあると期待しているデータが実際に書きだされなくてクラッシュが起こる可能性があるくらいです。
# zfs set sync=disabled <pool>/tmp
さらに、セキュリティ上の理由で、/tmp
ファイルシステムの setuid と devices を無効化すると良いでしょう。特権昇格攻撃やデバイスノードの使用をふせぐことができます:
# zfs set setuid=off <pool>/tmp # zfs set devices=off <pool>/tmp
上記の全てをまとめると create コマンドは以下のようになります:
# zfs create -o setuid=off -o devices=off -o sync=disabled -o mountpoint=/tmp <pool>/tmp
また、ZFS に /tmp
を配置するときは、systemd の tmpfs による自動的な /tmp
をマスク (無効化) する必要があるので注意してください。そうしないと ZFS が起動時やインポート時にデータセットをマウントできなくなってしまいます:
# systemctl mask tmp.mount
zvol
zvol は RDBMS と同じようにブロックサイズ関連の問題を被りますが、zvol のデフォルトの recordsize は始めから 8KiB になっているので大丈夫です。可能であれば、zvol に含まれているパーティションは recordsize にあわせて (fdisk と gdisk の最新版ではデフォルトで 1MiB セグメントに合わせます)、ファイルシステムのブロックサイズも同じサイズに合わせるのがベストです。それ以外にも、必要に応じて recordsize を zvol 内のデータに適合させることもできます (ほとんどのファイルシステムでは 8KiB で十分ですが、4KiB のブロックを使用した方が良いときもあります)。
RAIDZ と Advanced Format 物理ディスク
zvol の各ブロックにはそれぞれパリティディスクが存在しており、もし、論理ブロックサイズが 4096B, 8192B などの物理メディアを使用していて、パリティを物理ブロック全体に保存する必要がある場合、zvol に必要な容量が劇的に増えてしまう可能性があります。zvol の論理容量の2倍位上の物理ストレージ容量が必要になります。recordsize を 16k や 32k に設定することでこの必要容量をかなり減らすことができるかもしれません。
詳しくは ZFS on Linux issue #1807 を参照。
使用方法
zpool の下に手動でディレクトリを作成するのに対して、任意で zpool の下にデータセットを作成することができます。データセットはスナップショットに加えて制御のレベルを増加させます (クォータなど)。データセットの作成とマウントをするときは、同じ名前のディレクトリが zpool に存在してはいけません。データセットを作成するには、次を使用:
# zfs create <nameofzpool>/<nameofdataset>
データセットには ZFS の特定属性を適用させることができます。例えば、データセット内の特定のディレクトリにクォータ制限をかけることが可能です:
# zfs set quota=20G <nameofzpool>/<nameofdataset>/<directory>
ZFS で利用できるコマンドを全て表示するには、次のコマンドを使用:
$ man zfs
または:
$ man zpool
ネイティブ暗号化
ZFS のネイティブ暗号化は 0.7.0.r26 以上のバージョンから使うことができ zfs-linux-gitAUR, zfs-dkms-gitAUR などの開発ビルドのパッケージで利用できます。バージョン 0.7 はリリースされていますが、0.7.3 現在、安定版では機能は有効になっていないために開発ビルドが必要になります。/usr/src/zfs-*/include/sys/fs/zfs.h
の ZFS_PROP_ENCRYPTION
の定義をチェックすることで、インストールしている zfs で暗号化が使えるかどうか確認できます。
- サポートされている暗号化オプション:
aes-128-ccm
,aes-192-ccm
,aes-256-ccm
,aes-128-gcm
,aes-192-gcm
,aes-256-gcm
。暗号化がon
に設定されている場合、aes-256-ccm
が使われます。 - サポートされているキーフォーマット:
passphrase
,raw
,hex
。
-o pbkdf2iters <n>
で PBKDF2 の繰り返しを指定することもできます (キーの復号化に時間がかかるようになります)。
パスフレーズによるネイティブ暗号化を有効にしてデータセットを作成するには:
# zfs create -o encryption=on -o keyformat=passphrase <nameofzpool>/<nameofdataset>
パスフレーズの代わりにキーを使うには:
# dd if=/dev/urandom of=/path/to/key bs=1 count=32 # zfs create -o encryption=on -o keyformat=raw -o keylocation=file:///path/to/key <nameofzpool>/<nameofdataset>
手動でキーをロードしてから暗号化されたデータセットをマウントすることも可能です:
# zfs load-key <nameofzpool>/<nameofdataset> # load key for a specific dataset # zfs load-key -a # load all keys # zfs load-key -r zpool/dataset # load all keys in a dataset
暗号化されたデータセットを含むプールをインポートすると、ZFS はデフォルトではデータセットを復号化しません。復号化するには -l
を使います:
# zpool import -l pool
systemd カスタムユニットを使うことで起動時に復号化を自動的に行うことができます。例:
/etc/systemd/system/zfs-key@.service
[Unit] Description=Load storage encryption keys Before=systemd-user-sessions.service Before=zfs-mount.service [Service] Type=oneshot RemainAfterExit=yes ExecStart=/usr/bin/bash -c '/usr/bin/zfs load-key zpool/%i <<< $(systemd-ask-password "Encrypted storage password (%i): ")' [Install] WantedBy=zfs-mount.service
暗号化ボリュームを指定してサービスインスタンスを有効化してください: # systemctl enable zfs-key@dataset
。
systemd-user-sessions.service
の Before=
によってローカル IO デバイスがシステム UI に移る前に systemd-ask-password
が呼び出されます。
スクラブ
少なくとも週に一度は ZFS プールをスクラブするべきです。プールをスクラブするには:
# zpool scrub <pool>
週一で自動的にスクラブするようにするには、root の crontab に次の行を設定してください:
# crontab -e
... 30 19 * * 5 zpool scrub <pool> ...
<pool>
は ZFS プールの名前に置き換えて下さい。
zfs プールの状態を確認
読み書きエラーなどの情報を含む、ZFS プールの統計が書かれた表を表示するには、次を使用:
# zpool status -v
ストレージプールを破壊
ZFS ではマウントされているストレージプールを破壊して、ZFS デバイスに関する全てのメタデータを簡単に削除することができます。次のコマンドはプールに含まれているデータを全て破壊します:
# zpool destroy <pool>
状態を確認すると:
# zpool status
no pools available
プールの名前を確認するには、#zfs プールの状態を確認 を見て下さい。
ストレージプールをエクスポート
ストレージプールを他のシステムで使用するときは、まずエクスポートする必要があります。また、archiso からプールをインポートしたときも、archiso での hostid と起動環境での hostid が異なるのでプールをエクスポートしなくてはなりません。zpool コマンドはエクスポートされていないストレージプールのインポートを拒否します。-f
引数を使って強制的にインポートすることもできますが、良い手段とは言えません。
エクスポートされていないストレージプールをインポートするとストレージプールが他のシステムによって使用されているというエラーが発生します。このエラーは起動時に発生することがあり、busybox コンソールでシステムが突然停止して、archiso による応急処置が必要になります。プールをエクスポートするか、またはカーネルのブートパラメータに zfs_force=1
を追加してください (こちらの方法はあまり芳しくありません)。#起動時に zfs プールがマウントされない: "pool may be in use from other system" を参照。
プールをエクスポートするには:
# zpool export <pool>
Zpool の名前を変更
既に作成済みの zpool の名前の変更は2ステップで行います:
# zpool export oldname # zpool import oldname newname
別のマウントポイントを設定
指定の zpool のマウントポイントは一つのコマンドで随意に移動することができます:
# zfs set mountpoint=/foo/bar poolname
アクセス制御リスト
ZFS プールで ACL を使うには:
# zfs set acltype=posixacl <nameofzpool>/<nameofdataset> # zfs set xattr=sa <nameofzpool>/<nameofdataset>
パフォーマンス上の理由から xattr
を設定することが推奨されています [6]。
スワップボリューム
ZFS ではスワップファイルを使うことはできませんが、ユーザーは ZFS ボリューム (ZVOL) をスワップとして利用することができます。ZVOL のブロックサイズをシステムページサイズと一致するように設定するのが重要です。システムページサイズは getconf PAGESIZE
コマンドで取得することができます (x86_64 でのデフォルトは 4KiB)。また、メモリが少ないシチュエーションでシステムを上手く動作させ続けるには zvol データのキャッシュを行わないほうが良いでしょう。
8 GiB の zfs ボリュームを作成:
# zfs create -V 8G -b $(getconf PAGESIZE) \ -o logbias=throughput -o sync=always\ -o primarycache=metadata \ -o com.sun:auto-snapshot=false <pool>/swap
スワップパーティションとして設定:
# mkswap -f /dev/zvol/<pool>/swap # swapon /dev/zvol/<pool>/swap
この設定を永続化させるには、/etc/fstab
を編集します。ZVOL は discard をサポートしており、ZFS のブロックアロケータの役に立ったり、スワップが満杯になったときに他のデータセットにおける断片化を減らすことができます。
/etc/fstab
に次の行を追加:
/dev/zvol/<pool>/swap none swap discard 0 0
ハイバネートフックはファイルシステムよりも前にロードされる必要があり、ZVOL をスワップとして使うとハイバネート機能が使えなくなることを覚えておいて下さい。ハイバネートが必要な場合は、スワップ用のパーティションを取っておいて下さい。
自動スナップショット
Linux の ZFS 自動スナップショットサービス
AUR の zfs-auto-snapshot-gitAUR パッケージにはスナップショットの管理の自動化を行うシェルスクリプトが入っています。スナップショットには日付とラベルで名前が付けられ (1時間毎、1日毎など)、全ての ZFS のデータセットを素早く簡単にスナップショットできます。15分毎・1時間毎・1日毎・1週間毎・1ヶ月毎にスナップショットを作成する cron タスクもインストールされます。任意で --keep パラメータを調整することでスナップショットを保存する期間を設定できます (1ヶ月毎のスクリプトはデフォルトで1年間までデータを保存します)。
データセットがスナップショットされないようにするには、データセットに com.sun:auto-snapshot=false
を設定してください。同じように、ラベルで細かい設定をすることができます。例えば、1ヶ月毎のスナップショットを作成しないようにするには com.sun:auto-snapshot:monthly=false
を設定します。
ZFS スナップショットマネージャ
AUR の zfs-snap-managerAUR パッケージは ZFS データセットのスナップショットを毎日作成して "Grandfather-father-son" 方式で削除していく python サービスを提供します。7日毎、5週間毎、3ヶ月毎、2年間毎などのスナップショットを保持するよう設定できます。
このパッケージは ZFS が動作している他のマシンへのレプリケーションもサポートしており zfs send
と zfs receive
を使います。同期先のマシンでもこのパッケージを使用している場合、複製したスナップショットを長期間にわたって保持するように設定することが可能です。これによって、同期元のマシンには毎日のスナップショットだけを少しだけローカルに保存して、リモートのストレージサーバーに大量のスナップショットを保存するという構成ができます。
トラブルシューティング
ZPool の作成が失敗する
以下のエラーが発生した場合:
# the kernel failed to rescan the partition table: 16 # cannot label 'sdc': try using parted(8) and then provide a specific slice: -1
ZFS がプールの作成が1秒未満で終わることを要求しているのが原因の一つです。通常状態では問題ありませんが、1秒以上かかってしまう状況というのはたくさんあります。もう一度作成を試行する前に、それぞれのドライブをクリアにする必要があります。
# parted /dev/sda rm 1 # parted /dev/sda rm 1 # dd if=/dev/zero of=/dev/sdb bs=512 count=1 # zpool labelclear /dev/sda
力づくで何度も作成してみることもでき、運が良ければ ZPool の作成が1秒未満で終わるでしょう。作成のスローダウンが一度発生すると、ドライブのバースト読み書きが遅くなることがあります。ZPool の作成と並行して読み込むことで、バースト速度を向上させることが可能です。
# dd if=/dev/sda of=/dev/null
複数のディスクで行うには、上記のコマンドをそれぞれのディスクでファイルに保存して次を実行:
# cat $FILE | parallel
そして同時に ZPool の作成を実行します。
ZFS の使用 RAM が多すぎる
デフォルトでは、ZFS はホストのシステムメモリの3分の2まで使用してファイル操作をキャッシュします (ARC)。ZFS はエンタープライズクラスのストレージシステム用に設計されたことを思い出して下さい。ARC サイズを調整するには、以下をカーネルパラメータのリストに追加します:
zfs.zfs_arc_max=536870912 # (for 512MB)
他の設定オプションや、より詳しい説明は gentoo-wiki:zfs#arc を見て下さい。
Does not contain an EFI label
zfs ファイルシステムを作成しようとするときに以下のエラーが発生することがあります:
/dev/disk/by-id/<id> does not contain an EFI label but it may contain partition
このエラーを打破するには zfs の create コマンドで -f
を使って下さい。
No hostid found
起動時に initscript の出力が表示される前に以下のエラーが発生する場合:
ZFS: No hostid found on kernel command line or /etc/hostid.
この警告は ZFS モジュールが spl hosted にアクセスできないのが原因です。この問題には2つの解決方法があります。一つはブートローダーのカーネルパラメータに spl hostid を記述することです。例えば、spl.spl_hostid=0x00bab10c
を追加します。
もう一つの解決方法は /etc/hostid
に hostid があることを確認して、initramfs イメージを再生成することです。それによって hostid 情報が initramfs イメージにコピーされます。
# mkinitcpio -p linux
SAS/SCSI デバイスからの起動中にプールが見つかりません
SAS/SCSI ベースでブートしている場合、ブートしようとしているプールが見つからないというブートの問題が発生することがあります。この原因として考えられるのは、デバイスの初期化がプロセスの中で遅すぎることです。これは、zfs がプールを組み立てようとする時点でデバイスを見つけることができないことを意味します。
この場合、続行する前に、デバイスがオンラインになるまで SCSI ドライバーを強制的に待機させる必要があります。これを /etc/modprobe.d/zfs.conf
に記述します。
/etc/modprobe.d/zfs.conf
options scsi_mod scan=sync
その後、initramfs を再生成
これが機能するのは、zfs フックが /etc/modprobe.d/zfs.conf
にあるファイルを initcpio にコピーし、ビルド時に使用されるためです。
起動時に zfs プールがマウントされない: "pool may be in use from other system"
プールがエクスポートされていない
zpool がインポートできないために新しいインストール環境が起動しない場合、インストール環境に chroot して zpool を正しくエクスポートしてください。#archzfs による chroot の応急処置 を参照。
chroot 環境に入ったら、ZFS モジュールをロードして強制的に zpool をインポートします:
# zpool import -a -f
そしてプールをエクスポートします:
# zpool export <pool>
利用可能なプールを確認するには、次を使用:
# zpool status
ZFS は hostid を使って zpool が作成されたシステムを追跡するのでプールをエクスポートする必要があります。hostid はネットワークの設定時に生成されます。archiso でのインストール中、ネットワーク設定が違うせいで新しい環境に含まれている hostid と異なる hostid が生成されることがあります。zfs ファイルシステムをエクスポートしたら新しい環境でインポートしなおしてください。それで hostid はリセットされます。参照: Re: Howto zpool import/export automatically? - msg#00227。
起動する度に ZFS が "pool may be in use" と表示する場合は、上記のようにプールを適切にエクスポートして、通常通りに ramdisk を再生成してください:
# mkinitcpio -p linux
hostid が間違っている
プールが正しくエクスポートされていることを確認してください。zpool をエクスポートすると所有者を示す hostid がクリアされます。そのため最初の起動時に zpool を正しくマウントする必要があります。マウントされなかった場合、他の問題が起こります。
hostid が正しく設定されておらず zfs が混同されているために zfs プールがマウントできないときは、もう一度再起動してください。手動で zfs に適切な数字を指定します。hostid は再起動しても変わらないため zpool は適切にマウントされます。
zfs_force を使って起動して hostid をメモします。例:
% hostid 0a0af0f8
この数字を spl.spl_hostid=0x0a0af0f8
のようにして カーネルパラメータ に追加してください。もう一つの解決方法は hostid を initram イメージの中に書き出すことです。この方法については インストールガイド の説明を見て下さい。
カーネルパラメータ に zfs_force=1
を追加することでチェックを常に無視することができます。ただし恒久的に使用するのは推奨されません。
デバイスのセクタアライメントが異なっている
ドライブが故障したときは、できるだけはやく同じドライブでドライブを交換してください。
# zpool replace bigdata ata-ST3000DM001-9YN166_S1F0KDGY ata-ST3000DM001-1CH166_W1F478BD -f
ただし、この場合、以下のエラーが発生します:
cannot replace ata-ST3000DM001-9YN166_S1F0KDGY with ata-ST3000DM001-1CH166_W1F478BD: devices have different sector alignment
ZFS は ashift オプションを使って物理ブロックサイズを調整しています。故障したディスクを置き換えるとき、ZFS は ashift=12
を使用しますが、故障したディスクの ashift が異なっている (例えば ashift=9
) 場合、結果としてこのエラーが起こってしまいます。
ブロックサイズが 4KB の Advanced Format ディスクの場合、一番良いパフォーマンスを出すため ashift は 12 が推奨されます。1.10 What’s going on with performance? や ZFS and Advanced Format disks を見て下さい。
zpool の ashift を確認するには zdb を使います: zdb | grep ashift
。
-o
引数を使って交換用ドライブの ashift を設定してください:
# zpool replace bigdata ata-ST3000DM001-9YN166_S1F0KDGY ata-ST3000DM001-1CH166_W1F478BD -o ashift=9 -f
zpool status で確認を行なって下さい:
# zpool status -v
pool: bigdata state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Mon Jun 16 11:16:28 2014 10.3G scanned out of 5.90T at 81.7M/s, 20h59m to go 2.57G resilvered, 0.17% done config: NAME STATE READ WRITE CKSUM bigdata DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 replacing-0 OFFLINE 0 0 0 ata-ST3000DM001-9YN166_S1F0KDGY OFFLINE 0 0 0 ata-ST3000DM001-1CH166_W1F478BD ONLINE 0 0 0 (resilvering) ata-ST3000DM001-9YN166_S1F0JKRR ONLINE 0 0 0 ata-ST3000DM001-9YN166_S1F0KBP8 ONLINE 0 0 0 ata-ST3000DM001-9YN166_S1F0JTM1 ONLINE 0 0 0 errors: No known data errors
プールの再同期が停止/再起動/遅いですか?
ZFSonLinux github によると、これは 2012 年以降の ZFS-ZED の既知の問題で、再同期化プロセスが常に再起動し、場合によってはスタックし、一部のハードウェアでは一般的に遅くなります。最も簡単な軽減策は、再同期が完了するまで zfs-zed.service を停止することです。
initramfs zpool.cache 内の使用できないプールのインポートの失敗によって引き起こされる起動の遅さを修正しました。
永続的に接続されていない追加のプールがインポートされているときに intramfs を更新すると (カーネル更新の実行時など)、起動時間が大幅に影響を受ける可能性があります。これは、これらのプールが initramfs zpool.cache に追加され、ZFS がこれらのプールをインポートしようとするためです。エクスポートしたり、通常の zpool.cache から削除したりしたかどうかに関係なく、ブートごとに追加のプールが作成されます。
ZFS が起動時に使用できないプールをインポートしようとしていることに気付いた場合は、まず次のコマンドを実行します。
$ zdb -C
起動時にインポートしたくないプールがないか zpool.cache を確認します。このコマンドで、現在使用できない追加のプールが表示される場合は、次のコマンドを実行します。
# zpool set cachefile=/etc/zfs/zpool.cache zroot
zroot という名前のプール以外のプールの zpool.cache をクリアします。場合によっては、zpool.cache を更新する必要がなく、代わりに initramfs を再生成 するだけで済みます。
ZFS コマンド履歴
ZFS は、プールの構造への変更を、実行されたコマンドのログとしてリングバッファーにネイティブに記録します (これをオフにすることはできません) ログは、劣化したプールまたは障害が発生したプールを復元するときに役立つ場合があります。
# zpool history zpool
History for 'zpool': 2023-02-19.16:28:44 zpool create zpool raidz1 /scratch/disk_1.img /scratch/disk_2.img /scratch/disk_3.img 2023-02-19.16:31:29 zfs set compression=lz4 zpool 2023-02-19.16:41:45 zpool scrub zpool 2023-02-19.17:00:57 zpool replace zpool /scratch/disk_1.img /scratch/bigger_disk_1.img 2023-02-19.17:01:34 zpool scrub zpool 2023-02-19.17:01:42 zpool replace zpool /scratch/disk_2.img /scratch/bigger_disk_2.img 2023-02-19.17:01:46 zpool replace zpool /scratch/disk_3.img /scratch/bigger_disk_3.img
ヒントとテクニック
archzfs パッケージを archiso に埋め込む
必要なソフトウェアが含まれるインストールメディアを作成するのは良い考えです。ただし、最新の archiso インストールメディアを CD や USB キーに書き込む必要があります。
既存の環境から、archiso に zfs
を埋め込むには、archiso
パッケージをダウンロード:
# pacman -S archiso
プロセスを開始:
# cp -r /usr/share/archiso/configs/releng /root/media
packages.x86_64
ファイルを編集して以下の行を追加:
spl-utils-linux-git spl-linux-git zfs-utils-linux-git zfs-linux-git
pacman.conf
ファイルを編集して以下の行を追加:
[archzfs] SigLevel = Never Server = http://archzfs.com/$repo/x86_64
必要であれば他のパッケージも packages.both
, packages.i686
, packages.x86_64
に追加してイメージを作成します。
# ./build.sh -v
イメージは /root/media/out
ディレクトリにできます。
プロセスの詳細は このガイド や Archiso の記事で読めます。
UEFI 環境にインストールする場合は、Unified Extensible Firmware Interface#ISO から UEFI ブータブル USB を作成する を見て UEFI に対応するインストールメディアを作成してください。
ZFS on Linux で暗号化
ZFS on Linux の安定版は直接暗号化をサポートしていませんが、zpool を dm-crypt ブロックデバイスの中に作成することができます。zpool は平文の抽象レイヤー上に作成されるので、重複排除や圧縮、データの堅牢性といった ZFS の利点を全て活かしながらデータを暗号化することが可能です。
dm-crypt (LUKS) は /dev/mapper
にデバイスを作成し、デバイスの名前は固定されます。そのため、zpool create
コマンドを変更してその名前を使う必要があります。/dev/mapper
ブロックデバイスを作成してそこから zpool をインポートするようにシステムを設定することが狙いです。zpool は複数のデバイスに作成することができるので (raid, mirroring, striping, ...)、全てのデバイスを暗号化するのが重要です。そうしないと保護が部分的に欠ける恐れがあります。
例えば、以下を使うことでプレーンな dm-crypt (LUKS は使わない) で暗号化された zpool を作成することができます:
# cryptsetup --hash=sha512 --cipher=twofish-xts-plain64 --offset=0 --key-file=/dev/sdZ --key-size=512 open --type=plain /dev/sdX enc # zpool create zroot /dev/mapper/enc
root ファイルシステムのプールの場合、mkinicpio.conf
の HOOKS 行でパスワードを入力するためのキーボードを有効にしたり、デバイスを作成、プールをロードします。以下のようになります:
HOOKS="... keyboard encrypt zfs ..."
/dev/mapper/enc
の名前は固定されているためインポートエラーは発生しません。
暗号化された zpool の作成は問題なく動作します。ただし、ディレクトリの暗号化が必要な場合、例えばユーザーのホームを保護したいとき、ZFS は機能をいくつか失います。
ZFS は平文の抽象レイヤーではなく暗号化されたデータを回覧するので、圧縮や重複排除は動作しません。暗号化されているデータは高エントロピーであり圧縮がうまく効かないのと、入力と出力が異なって重複排除ができなくなってしまうからです。不必要なオーバーヘッドを減らすために、暗号化ディレクトリにサブファイルシステムを作成して、その上で eCryptfs を使うことができます。
例えばホームを暗号化するには: (暗号化とログインの2つのパスワードは同じである必要があります)
# zfs create -o compression=off -o dedup=off -o mountpoint=/home/<username> <zpool>/<username> # useradd -m <username> # passwd <username> # ecryptfs-migrate-home -u <username> <log in user and complete the procedure with ecryptfs-unwrap-passphrase>
archzfs による chroot の応急処置
以下はメンテナンスのために archiso を使って ZFS ファイルシステムに入る方法です。
最新の archiso を起動してネットワークを立ち上げる:
# wifi-menu # ip link set eth0 up
ネットワーク接続をテスト:
# ping google.com
pacman パッケージデータベースを同期:
# pacman -Syy
(任意) テキストエディタのインストール:
# pacman -S vim
archzfs の archiso リポジトリを pacman.conf
に追加:
/etc/pacman.conf
[archzfs] Server = http://archzfs.com/$repo/x86_64
pacman パッケージデータベースを同期:
# pacman -Syy
archzfs のメンテナの PGP 鍵をローカルの (インストーライメージの) 信頼リストに追加:
# pacman-key --lsign-key 0EE7A126
ZFS パッケージグループをインストール:
# pacman -S archzfs-linux
ZFS カーネルモジュールをロード:
# modprobe zfs
プールをインポート:
# zpool import -a -R /mnt
(存在する場合) ブートパーティションをマウント:
# mount /dev/sda2 /mnt/boot # mount /dev/sda1 /mnt/boot/efi
ZFS ファイルシステムに chroot:
# arch-chroot /mnt /bin/bash
カーネルのバージョンを確認:
# pacman -Qi linux # uname -r
uname は archiso のカーネルバージョンを表示します。バージョンが異なる場合、chroot 環境の適切なカーネルバージョンで depmod を (chroot の中で) 実行してください (バージョンは pacman -Qi linux
で確認できます):
# depmod -a 3.6.9-1-ARCH
これで chroot 環境にインストールされているカーネルバージョンに合ったカーネルモジュールがロードされます。
ramdisk の再生成:
# mkinitcpio -p linux
エラーは起こらないはずです。
バインドマウント
以下では /mnt/zfspool
から /srv/nfs4/music
へのバインドマウントを作成します。バインドマウントを作成する前に zfs プールの準備ができていることを確認してください。
fstab
systemd-fstab-generator を使って systemd が fstab を mount ユニットファイルにどうやって変換するのかは systemd.mount を見てください。
/etc/fstab
/mnt/zfspool /srv/nfs4/music none bind,defaults,nofail,x-systemd.requires=zfs-mount.service 0 0
モニタリングやイベント時にメール
詳しくは ZED: The ZFS Event Daemon を見てください。
メールを送信するには msmtp などのメールフォワーダが必要です。動作することを確認してください。
設定ファイルで以下の行をアンコメント:
/etc/zfs/zed.d/zed.rc
ZED_EMAIL_ADDR="root" ZED_EMAIL_PROG="mail" ZED_NOTIFY_VERBOSE=0 ZED_EMAIL_OPTS="-s '@SUBJECT@' @ADDRESS@"
ZED_EMAIL_ADDR="root"
の 'root' は通知を受信したいメールアドレスに置き換えてください。
プールの状態に関わらずメールを受信したい場合は ZED_NOTIFY_VERBOSE=1
と設定すると良いでしょう。
設定したら zfs-zed.service
を起動・有効化してください。
verbose を 1 に設定したら、スクラブを実行することでテストできます。