「KVM」の版間の差分

提供: ArchWiki
ナビゲーションに移動 検索に移動
 
(同期)
 
(3人の利用者による、間の10版が非表示)
1行目: 1行目:
[[Category:仮想化]]
+
[[Category:ハイパーバイザ]]
 
[[Category:カーネル]]
 
[[Category:カーネル]]
 
[[en:KVM]]
 
[[en:KVM]]
 
[[it:KVM]]
 
[[it:KVM]]
[[zh-CN:KVM]]
+
[[zh-hans:KVM]]
  +
[[zh-hant:KVM]]
 
{{Related articles start}}
 
{{Related articles start}}
 
{{Related|QEMU}}
 
{{Related|QEMU}}
11行目: 12行目:
 
{{Related|VMware}}
 
{{Related|VMware}}
 
{{Related articles end}}
 
{{Related articles end}}
'''KVM''' (Kernel-based Virtual Machine) は Linux カーネルに搭載されている[[Wikipedia:ja:ハイパーバイザ|ハイパーバイザ]]です。意図しているところは [[Xen|Xen]] と似ていますがもっとシンプルに動作します。エミュレーションを使うネイティブの [[QEMU|QEMU]] と違って、KVM は仮想化のための CPU 拡張命令 ([[Wikipedia:Hardware-assisted virtualization|HVM]]) をカーネルモジュールを介して利用する QEMU の特殊なオペレーティングモードです。
+
'''KVM''' (Kernel-based Virtual Machine) は Linux カーネルに搭載されている[[Wikipedia:ja:ハイパーバイザ|ハイパーバイザ]]です。意図しているところは [[Xen]] と似ていますがもっとシンプルに動作します。エミュレーションを使うネイティブの [[QEMU]] と違って、KVM は仮想化のための CPU 拡張命令 ([[Wikipedia:Hardware-assisted virtualization|HVM]]) をカーネルモジュールを介して利用する QEMU の特殊なオペレーティングモードです。
   
 
KVM を使用することで、修正を加えずに GNU/Linux や Windows などのオペレーティングシステムが動作する仮想マシンを複数動かすことができます (詳しくは [http://www.linux-kvm.org/page/Guest_Support_Status Guest Support Status] を見て下さい)。それぞれの仮想マシンには専用の仮想化されたハードウェアが使われます: ネットワークカード、ディスク、グラフィックカードなど。
 
KVM を使用することで、修正を加えずに GNU/Linux や Windows などのオペレーティングシステムが動作する仮想マシンを複数動かすことができます (詳しくは [http://www.linux-kvm.org/page/Guest_Support_Status Guest Support Status] を見て下さい)。それぞれの仮想マシンには専用の仮想化されたハードウェアが使われます: ネットワークカード、ディスク、グラフィックカードなど。
   
KVM と [[Xen|Xen]], [[VMware|VMware]], QEMU の違いについては [http://www.linux-kvm.org/page/FAQ#General_KVM_information KVM FAQ] で説明されています。
+
KVM と [[Xen]], [[VMware]], QEMU の違いについては [http://www.linux-kvm.org/page/FAQ#General_KVM_information KVM FAQ] で説明されています。
   
 
この記事では KVM をバックエンドに使うエミュレータに共通の機能は扱いません。そのような情報は各々の該当する記事を見て下さい。
 
この記事では KVM をバックエンドに使うエミュレータに共通の機能は扱いません。そのような情報は各々の該当する記事を見て下さい。
24行目: 25行目:
   
 
KVM を使うには仮想マシンのホストのプロセッサが仮想化をサポートしている必要があります (Intel のプロセッサでは VT-x、AMD のプロセッサでは AMD-V という名前が付けられています)。あなたの使っているプロセッサがハードウェア仮想化をサポートしているかは次のコマンドで確認できます:
 
KVM を使うには仮想マシンのホストのプロセッサが仮想化をサポートしている必要があります (Intel のプロセッサでは VT-x、AMD のプロセッサでは AMD-V という名前が付けられています)。あなたの使っているプロセッサがハードウェア仮想化をサポートしているかは次のコマンドで確認できます:
$ lscpu
+
$ LC_ALL=C lscpu | grep Virtualization
   
 
プロセッサが仮想化をサポートしていれば、それを示す行があるはずです。
 
プロセッサが仮想化をサポートしていれば、それを示す行があるはずです。
   
 
次を実行することでも確認できます:
 
次を実行することでも確認できます:
$ grep -E "(vmx|svm|0xc0f)" --color=always /proc/cpuinfo
+
$ grep -E --color=auto 'vmx|svm|0xc0f' /proc/cpuinfo
   
 
このコマンドを実行しても何も表示されない場合、あなたのプロセッサはハードウェア仮想化をサポート'''していない'''ため、KVM を使用することは'''できません'''。
 
このコマンドを実行しても何も表示されない場合、あなたのプロセッサはハードウェア仮想化をサポート'''していない'''ため、KVM を使用することは'''できません'''。
37行目: 38行目:
 
=== カーネルのサポート ===
 
=== カーネルのサポート ===
 
Arch Linux のカーネルは KVM と VIRTIO をサポートする適切な[[カーネルモジュール]]を提供しています。
 
Arch Linux のカーネルは KVM と VIRTIO をサポートする適切な[[カーネルモジュール]]を提供しています。
  +
 
==== KVM モジュール ====
 
==== KVM モジュール ====
 
あなたの使っているカーネルで必要なカーネルモジュール ({{ic|kvm}} と、{{ic|kvm_amd}} か {{ic|kvm_intel}} のどちらか) が使えるようになっているかは次のコマンドで確認できます (カーネルが {{ic|CONFIG_IKCONFIG_PROC}} を有効にしてビルドされたことが前提です):
 
あなたの使っているカーネルで必要なカーネルモジュール ({{ic|kvm}} と、{{ic|kvm_amd}} か {{ic|kvm_intel}} のどちらか) が使えるようになっているかは次のコマンドで確認できます (カーネルが {{ic|CONFIG_IKCONFIG_PROC}} を有効にしてビルドされたことが前提です):
43行目: 45行目:
   
 
==準仮想化デバイス==
 
==準仮想化デバイス==
ゲストがホストマシンのデバイスを使えるように、準仮想化は高速で効率的な通信手段を提供します。KVM はハイパーバイザとゲスト間のレイヤーとして Virtio API を使って仮想マシンに準仮想化デバイスを提供します。
+
ゲストがホストマシンのデバイスを使えるように、準仮想化は高速で効率的な通信手段を提供します。KVM はハイパーバイザとゲスト間のレイヤーとして Virtio API を使って仮想マシンに準仮想化デバイスを提供します。
   
 
virtio デバイスは全て2つに分けることができます: ホストのデバイスとゲストのドライバーです。
 
virtio デバイスは全て2つに分けることができます: ホストのデバイスとゲストのドライバーです。
49行目: 51行目:
 
=== VIRTIO モジュール ===
 
=== VIRTIO モジュール ===
 
Virtio はネットワークやディスクデバイスドライバーの仮想化規格です。これによってゲストはネットワークやディスク操作の高いパフォーマンスを得ることが可能になり、準仮想化で役に立ちます。次のコマンドで必要なモジュールが使用可能か確認します:
 
Virtio はネットワークやディスクデバイスドライバーの仮想化規格です。これによってゲストはネットワークやディスク操作の高いパフォーマンスを得ることが可能になり、準仮想化で役に立ちます。次のコマンドで必要なモジュールが使用可能か確認します:
$ zgrep CONFIG_VIRTIO /proc/config.gz
+
$ zgrep VIRTIO /proc/config.gz
   
 
=== カーネルモジュールのロード ===
 
=== カーネルモジュールのロード ===
   
まず、カーネルモジュールが自動でロードされているか確認してください。最新の [[udev|udev]] ではそうなっているはずです。
+
まず、カーネルモジュールが自動でロードされているか確認してください。最新の [[udev]] ではそうなっているはずです。
 
$ lsmod | grep kvm
 
$ lsmod | grep kvm
 
$ lsmod | grep virtio
 
$ lsmod | grep virtio
   
 
上記のコマンドが何もメッセージを返さない場合、カーネルモジュールを[[カーネルモジュール#ロード|ロード]]する必要があります。
 
上記のコマンドが何もメッセージを返さない場合、カーネルモジュールを[[カーネルモジュール#ロード|ロード]]する必要があります。
  +
{{Tip|{{Ic|kvm_intel}} や {{Ic|kvm_amd}} の modprobe が失敗して {{Ic|kvm}} の modprobe が成功する場合 (そして {{ic|lscpu}} でハードウェアアクセラレーションがサポートされていると表示される場合)、BIOS の設定を確認してください。メーカーによっては (特にノートパソコンメーカー)、プロセッサの拡張をデフォルトで無効にしていることがあります。BIOS で無効化されている拡張があるかどうかは、modprobe に失敗した後に {{Ic|dmesg}} の出力を見ることで確認できます。}}
{{Tip|
 
If modprobing {{Ic|kvm_intel}} or {{Ic|kvm_amd}} fails but modprobing {{Ic|kvm}} succeeds, (and {{ic|lscpu}} claims that hardware acceleration is supported), check your BIOS settings. Some vendors (especially laptop vendors) disable these processor extensions by default. To determine whether there's no hardware support or there is but the extensions are disabled in BIOS, the output from {{Ic|dmesg}} after having failed to modprobe will tell.}}
 
   
 
=== 準仮想化デバイスの一覧 ===
 
=== 準仮想化デバイスの一覧 ===
70行目: 71行目:
   
 
== KVM の使い方 ==
 
== KVM の使い方 ==
次の記事を参照してください: [[QEMU|QEMU]]。
+
次の記事を参照してください: [[QEMU]]。
   
  +
== ヒントとテクニック ==
== Tips and tricks ==
 
   
{{Note|一般的な小技やヒントは [[QEMU#Tips and tricks|QEMU#Tips and tricks]] や [[QEMU#トラブルシューティング|QEMU#トラブルシューティング]] を見て下さい。}}
+
{{Note|一般的な小技やヒントは [[QEMU#ヒントとテクニック]] や [[QEMU#トラブルシューティング]]を見て下さい。}}
   
 
=== 仮想化のネスト ===
 
=== 仮想化のネスト ===
   
Nested Virtualization を使うことで、元の仮想マシンやネットワークに修正を加えることなく、既存の仮想マシンを別のハイパーバイザや他のクラウド上で動作させることができるようになります。
+
Nested Virtualization を使うことで、元の仮想マシンやネットワークに修正を加えることなく、既存の仮想マシンを別のハイパーバイザや他のクラウド上で動作させることができるようになります。
   
 
ホスト側で、{{ic|kvm_intel}} の nested 機能を有効にしてください:
 
ホスト側で、{{ic|kvm_intel}} の nested 機能を有効にしてください:
85行目: 86行目:
   
 
永続化させるには ([[カーネルモジュール#モジュールオプションを設定する]]を参照):
 
永続化させるには ([[カーネルモジュール#モジュールオプションを設定する]]を参照):
{{hc|/etc/modprobe.d/modprobe.conf|<nowiki>
+
{{hc|/etc/modprobe.d/kvm_intel.conf|<nowiki>
 
options kvm_intel nested=1
 
options kvm_intel nested=1
 
</nowiki>}}
 
</nowiki>}}
94行目: 95行目:
 
</nowiki>}}
 
</nowiki>}}
   
  +
全ての CPU の機能をゲスト環境に転送するために"ホストパススルー"モードを有効化:
次のコマンドでゲスト VM を実行してください:
 
  +
$ qemu-system-x86_64 -enable-kvm -cpu host
 
  +
* [[QEMU]] を使用する場合、次のコマンドでゲスト VM を実行してください: {{ic|qemu-system-x86_64 -enable-kvm -cpu host}}。
  +
* ''virt-manager'' を使用する場合、CPU モデルを {{ic|host-passthrough}} に変更してください (リストに存在しない場合はボックスに直接書き出してください)。
  +
* ''virsh'' を使用する場合、{{ic|virsh edit ''vm-name''}} を使って CPU 行を {{ic|1=<cpu mode='host-passthrough' check='partial'/>}} に変更してください。
   
 
VM を起動したら vmx フラグが存在するか確認:
 
VM を起動したら vmx フラグが存在するか確認:
$ grep -E "(vmx|svm)" /proc/cpuinfo
+
$ grep -E --color=auto 'vmx|svm' /proc/cpuinfo
   
 
=== 手軽なネットワーク ===
 
=== 手軽なネットワーク ===
110行目: 114行目:
 
* セットアップ認証
 
* セットアップ認証
   
SSH のセットアップについては [[SSH|SSH]] の記事、特に [[SSH#他のポートのフォワーディング|SSH#他のポートのフォワーディング]] を参照してください。
+
SSH のセットアップについては [[SSH]] の記事、特に [[SSH#他のポートのフォワーディング]]を参照してください。
   
  +
デフォルトのユーザーネットワークスタックを使用する場合、ホストには 10.0.2.2 アドレスでアクセスできます。
When using the default user network stack, the host is reachable at address 10.0.2.2.
 
   
  +
全てが動作しホストに SSH できるようになったら、{{ic|/etc/rc.local}} に以下を追加してください:
If everything works and you can SSH into the host, simply add something like the following to your {{ic|/etc/rc.local}}
 
 
# Local SSH Server
 
# Local SSH Server
 
echo "Starting SSH tunnel"
 
echo "Starting SSH tunnel"
122行目: 126行目:
 
sudo -u vmuser ssh tunneluser@10.0.2.2 -N -L 2345:127.0.0.1:2345 -f
 
sudo -u vmuser ssh tunneluser@10.0.2.2 -N -L 2345:127.0.0.1:2345 -f
   
  +
上記の例では VM の SSH サーバーのトンネルを作成してホストの任意のポートを VM に引き入れています。
In this example a tunnel is created to the SSH server of the VM and an arbitrary port of the host is pulled into the VM.
 
   
  +
VM における基礎的なネットワークですが、堅牢であり大抵の場合はこれで上手く行きます。
This is a quite basic strategy to do networking with VMs. However, it is very robust and should be quite sufficient most of the time.
 
   
 
=== ヒュージページの有効化 ===
 
=== ヒュージページの有効化 ===
133行目: 137行目:
 
hugetlbfs /dev/hugepages hugetlbfs mode=1770,gid=78 0 0
 
hugetlbfs /dev/hugepages hugetlbfs mode=1770,gid=78 0 0
   
  +
もちろん gid は {{ic|kvm}} グループに一致している必要があります。{{ic|1770}} ではグループの誰でもファイルを作成することができますが、他人のファイルを消去することはできません。{{ic|/dev/hugepages}} が正しくマウントされていることを確認してください:
Of course the gid must match that of the {{ic|kvm}} group. The mode of {{ic|1770}} allows anyone in the group to create files but not unlink or rename each other's files. Make sure {{ic|/dev/hugepages}} is mounted properly:
 
 
{{hc|# umount /dev/hugepages
 
{{hc|# umount /dev/hugepages
 
# mount /dev/hugepages
 
# mount /dev/hugepages
140行目: 144行目:
 
}}
 
}}
   
  +
それから必要なヒュージページの数を計算します。ヒュージページの大きさを確認するには:
Now you can calculate how many hugepages you need. Check how large your hugepages are:
 
 
$ grep Hugepagesize /proc/meminfo
 
$ grep Hugepagesize /proc/meminfo
   
  +
通常は 2048 kB ≙ 2 MB です。仮想マシンを 1024 MB で動作させたい場合、1024 / 2 = 512 となり少し追加して550まで丸めることができます。必要とするヒュージページをマシンに設定:
Normally that should be 2048 kB ≙ 2 MB. Let's say you want to run your virtual machine with 1024 MB. 1024 / 2 = 512. Add a few extra so we can round this up to 550. Now tell your machine how many hugepages you want:
 
 
# echo 550 > /proc/sys/vm/nr_hugepages
 
# echo 550 > /proc/sys/vm/nr_hugepages
   
151行目: 155行目:
 
}}
 
}}
   
  +
数字がさらに小さい場合、アプリケーションを閉じるか少ないメモリで仮想マシンを起動してください (number_of_pages x 2):
If the number is smaller, close some applications or start your virtual machine with less memory (number_of_pages x 2):
 
 
$ qemu-system-x86_64 -enable-kvm -m 1024 -mem-path /dev/hugepages -hda <disk_image> [...]
 
$ qemu-system-x86_64 -enable-kvm -m 1024 -mem-path /dev/hugepages -hda <disk_image> [...]
   
  +
そして {{ic|-mem-path}} パラメータを使うことでヒュージページが利用されます。
Note the {{ic|-mem-path}} parameter. This will make use of the hugepages.
 
   
  +
仮想マシンの実行中に、使われているヒュージページを確認するには:
Now you can check, while your virtual machine is running, how many pages are used:
 
 
{{hc|$ grep HugePages /proc/meminfo |
 
{{hc|$ grep HugePages /proc/meminfo |
 
HugePages_Total: 550
 
HugePages_Total: 550
164行目: 168行目:
 
}}
 
}}
   
Now that everything seems to work you can enable hugepages by default if you like. Add to your {{ic|/etc/sysctl.d/40-hugepage.conf}}:
+
問題がないようでしたらデフォルトでヒュージページを有効にすることができます。以下を {{ic|/etc/sysctl.d/40-hugepage.conf}} に追加してください:
 
vm.nr_hugepages = 550
 
vm.nr_hugepages = 550
   
 
参照:
 
参照:
* https://www.kernel.org/doc/Documentation/vm/hugetlbpage.txt
+
* [https://www.kernel.org/doc/Documentation/vm/hugetlbpage.txt Linux カーネルの hugetlbpage サポートの概要]
* http://wiki.debian.org/Hugepages
+
* https://wiki.debian.org/Hugepages
* http://www.linux-kvm.com/content/get-performance-boost-backing-your-kvm-guest-hugetlbfs
 
   
 
== 参照 ==
 
== 参照 ==

2018年2月24日 (土) 22:32時点における最新版

関連記事

KVM (Kernel-based Virtual Machine) は Linux カーネルに搭載されているハイパーバイザです。意図しているところは Xen と似ていますがもっとシンプルに動作します。エミュレーションを使うネイティブの QEMU と違って、KVM は仮想化のための CPU 拡張命令 (HVM) をカーネルモジュールを介して利用する QEMU の特殊なオペレーティングモードです。

KVM を使用することで、修正を加えずに GNU/Linux や Windows などのオペレーティングシステムが動作する仮想マシンを複数動かすことができます (詳しくは Guest Support Status を見て下さい)。それぞれの仮想マシンには専用の仮想化されたハードウェアが使われます: ネットワークカード、ディスク、グラフィックカードなど。

KVM と Xen, VMware, QEMU の違いについては KVM FAQ で説明されています。

この記事では KVM をバックエンドに使うエミュレータに共通の機能は扱いません。そのような情報は各々の該当する記事を見て下さい。

KVM サポートの確認

ハードウェアのサポート

KVM を使うには仮想マシンのホストのプロセッサが仮想化をサポートしている必要があります (Intel のプロセッサでは VT-x、AMD のプロセッサでは AMD-V という名前が付けられています)。あなたの使っているプロセッサがハードウェア仮想化をサポートしているかは次のコマンドで確認できます:

$ LC_ALL=C lscpu | grep Virtualization

プロセッサが仮想化をサポートしていれば、それを示す行があるはずです。

次を実行することでも確認できます:

$ grep -E --color=auto 'vmx|svm|0xc0f' /proc/cpuinfo

このコマンドを実行しても何も表示されない場合、あなたのプロセッサはハードウェア仮想化をサポートしていないため、KVM を使用することはできません

ノート: BIOS の方で仮想化サポートを有効にする必要があるときもあります。

カーネルのサポート

Arch Linux のカーネルは KVM と VIRTIO をサポートする適切なカーネルモジュールを提供しています。

KVM モジュール

あなたの使っているカーネルで必要なカーネルモジュール (kvm と、kvm_amdkvm_intel のどちらか) が使えるようになっているかは次のコマンドで確認できます (カーネルが CONFIG_IKCONFIG_PROC を有効にしてビルドされたことが前提です):

$ zgrep CONFIG_KVM /proc/config.gz

モジュールが ym に設定されていない場合、そのモジュールは利用できないことを意味します。

準仮想化デバイス

ゲストがホストマシンのデバイスを使えるように、準仮想化は高速で効率的な通信手段を提供します。KVM はハイパーバイザとゲスト間のレイヤーとして Virtio API を使って仮想マシンに準仮想化デバイスを提供します。

virtio デバイスは全て2つに分けることができます: ホストのデバイスとゲストのドライバーです。

VIRTIO モジュール

Virtio はネットワークやディスクデバイスドライバーの仮想化規格です。これによってゲストはネットワークやディスク操作の高いパフォーマンスを得ることが可能になり、準仮想化で役に立ちます。次のコマンドで必要なモジュールが使用可能か確認します:

$ zgrep VIRTIO /proc/config.gz

カーネルモジュールのロード

まず、カーネルモジュールが自動でロードされているか確認してください。最新の udev ではそうなっているはずです。

$ lsmod | grep kvm
$ lsmod | grep virtio

上記のコマンドが何もメッセージを返さない場合、カーネルモジュールをロードする必要があります。

ヒント: kvm_intelkvm_amd の modprobe が失敗して kvm の modprobe が成功する場合 (そして lscpu でハードウェアアクセラレーションがサポートされていると表示される場合)、BIOS の設定を確認してください。メーカーによっては (特にノートパソコンメーカー)、プロセッサの拡張をデフォルトで無効にしていることがあります。BIOS で無効化されている拡張があるかどうかは、modprobe に失敗した後に dmesg の出力を見ることで確認できます。

準仮想化デバイスの一覧

  • ネットワークデバイス (virtio-net)
  • ブロックデバイス (virtio-blk)
  • コントローラデバイス (virtio-scsi)
  • シリアルデバイス (virtio-serial)
  • バルーンデバイス (virtio-balloon)

KVM の使い方

次の記事を参照してください: QEMU

ヒントとテクニック

ノート: 一般的な小技やヒントは QEMU#ヒントとテクニックQEMU#トラブルシューティングを見て下さい。

仮想化のネスト

Nested Virtualization を使うことで、元の仮想マシンやネットワークに修正を加えることなく、既存の仮想マシンを別のハイパーバイザや他のクラウド上で動作させることができるようになります。

ホスト側で、kvm_intel の nested 機能を有効にしてください:

# modprobe -r kvm_intel
# modprobe kvm_intel nested=1

永続化させるには (カーネルモジュール#モジュールオプションを設定するを参照):

/etc/modprobe.d/kvm_intel.conf
options kvm_intel nested=1

機能が有効になっているか確認:

$ systool -m kvm_intel -v | grep nested
    nested              = "Y"

全ての CPU の機能をゲスト環境に転送するために"ホストパススルー"モードを有効化:

  • QEMU を使用する場合、次のコマンドでゲスト VM を実行してください: qemu-system-x86_64 -enable-kvm -cpu host
  • virt-manager を使用する場合、CPU モデルを host-passthrough に変更してください (リストに存在しない場合はボックスに直接書き出してください)。
  • virsh を使用する場合、virsh edit vm-name を使って CPU 行を <cpu mode='host-passthrough' check='partial'/> に変更してください。

VM を起動したら vmx フラグが存在するか確認:

$ grep -E --color=auto 'vmx|svm' /proc/cpuinfo

手軽なネットワーク

ブリッジネットワークの設定は少し厄介です。実験目的で VM を使いたいのであれば、SSH トンネリングを使ってホストとゲストを接続するという方法があります。

基本的な手順は以下の通りです:

  • ホスト OS で SSH サーバーをセットアップ
  • (任意) トンネリング用のユーザーを作成 (例: tunneluser)
  • VM に SSH をインストール
  • セットアップ認証

SSH のセットアップについては SSH の記事、特に SSH#他のポートのフォワーディングを参照してください。

デフォルトのユーザーネットワークスタックを使用する場合、ホストには 10.0.2.2 アドレスでアクセスできます。

全てが動作しホストに SSH できるようになったら、/etc/rc.local に以下を追加してください:

# Local SSH Server
echo "Starting SSH tunnel"
sudo -u vmuser ssh tunneluser@10.0.2.2 -N -R 2213:127.0.0.1:22 -f
# Random remote port (e.g. from another VM)
echo "Starting random tunnel"
sudo -u vmuser ssh tunneluser@10.0.2.2 -N -L 2345:127.0.0.1:2345 -f

上記の例では VM の SSH サーバーのトンネルを作成してホストの任意のポートを VM に引き入れています。

VM における基礎的なネットワークですが、堅牢であり大抵の場合はこれで上手く行きます。

ヒュージページの有効化

ヒュージページを有効にすることで仮想マシンのパフォーマンスを向上させることができます。最新の Arch Linux と KVM ならおそらく必要条件はすべて満たされているはずです。/dev/hugepages ディレクトリが存在しているかどうかチェックしてください。ディレクトリが存在しなかったら、作成してください。そしてこのディレクトリに適切なパーミッションを設定します。

/etc/fstab に以下を追加:

hugetlbfs       /dev/hugepages  hugetlbfs       mode=1770,gid=78        0 0

もちろん gid は kvm グループに一致している必要があります。1770 ではグループの誰でもファイルを作成することができますが、他人のファイルを消去することはできません。/dev/hugepages が正しくマウントされていることを確認してください:

# umount /dev/hugepages
# mount /dev/hugepages
$ mount | grep huge
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,mode=1770,gid=78)

それから必要なヒュージページの数を計算します。ヒュージページの大きさを確認するには:

$ grep Hugepagesize /proc/meminfo

通常は 2048 kB ≙ 2 MB です。仮想マシンを 1024 MB で動作させたい場合、1024 / 2 = 512 となり少し追加して550まで丸めることができます。必要とするヒュージページをマシンに設定:

# echo 550 > /proc/sys/vm/nr_hugepages

十分な空きメモリがあれば以下のように表示されるはずです:

$ grep HugePages_Total /proc/meminfo 
HugesPages_Total:  550

数字がさらに小さい場合、アプリケーションを閉じるか少ないメモリで仮想マシンを起動してください (number_of_pages x 2):

$ qemu-system-x86_64 -enable-kvm -m 1024 -mem-path /dev/hugepages -hda <disk_image> [...]

そして -mem-path パラメータを使うことでヒュージページが利用されます。

仮想マシンの実行中に、使われているヒュージページを確認するには:

$ grep HugePages /proc/meminfo 
HugePages_Total:     550
HugePages_Free:       48
HugePages_Rsvd:        6
HugePages_Surp:        0

問題がないようでしたらデフォルトでヒュージページを有効にすることができます。以下を /etc/sysctl.d/40-hugepage.conf に追加してください:

vm.nr_hugepages = 550

参照:

参照