Home
Packages
Forums
Wiki
GitLab
Security
AUR
Download
コンテンツにスキップ
メインメニュー
メインメニュー
サイドバーに移動
非表示
案内
メインページ
目次
コミュニティに貢献
最近の出来事
おまかせ表示
特別ページ
交流
ヘルプ
貢献
最近の更新
最近の議論
新しいページ
統計
リクエスト
ArchWiki
検索
検索
表示
アカウント作成
ログイン
個人用ツール
アカウント作成
ログイン
Bumblebeeのソースを表示
ページ
議論
日本語
閲覧
ソースを閲覧
履歴を表示
ツール
ツール
サイドバーに移動
非表示
操作
閲覧
ソースを閲覧
履歴を表示
全般
リンク元
関連ページの更新状況
ページ情報
表示
サイドバーに移動
非表示
←
Bumblebee
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
[[Category:グラフィック]] [[Category:X サーバー]] [[en:Bumblebee]] [[es:Bumblebee]] [[fr:Bumblebee]] [[it:Bumblebee]] [[ru:Bumblebee]] [[tr:Bumblebee]] [[zh-CN:Bumblebee]] {{Related articles start}} {{Related|NVIDIA Optimus}} {{Related2|Nouveau|Nouveau}} {{Related2|NVIDIA|NVIDIA}} {{Related2|Intel Graphics|Intel Graphics}} {{Related articles end}} Bumblebee の [https://github.com/Bumblebee-Project/Bumblebee/wiki/FAQ FAQ] より: "''Bumblebee は GNU/Linux システムで NVIDIA Optimus が搭載されたノートパソコンを動作させようという試みです。この機能では2枚のグラフィックカードを必要とし、異なる電源消費のプロファイルがレイヤーによって接続され1つのフレームバッファを共有することになります。''" == Bumblebee: Linux 用の Optimus == [http://www.nvidia.com/object/optimus_technology.html Optimus Technology] はハードウェアマルチプレクサを使用しない ''[http://hybrid-graphics-linux.tuxfamily.org/index.php?title=Hybrid_graphics ハイブリッドグラフィック]'' の実装です。内蔵 GPU はディスプレイを管理する一方、ディスクリート GPU は計算量が多いレンダリングを担当して内蔵 GPU に計算結果を転送して表示させます。ノートパソコンがバッテリーで動作しているときは、ディスクリート GPU の電源はオフにされ電力を節約してバッテリーをもたせます。Intel 内蔵グラフィックと nVidia の外付けグラフィックカードが搭載されたデスクトップマシンでも動作させることが可能です。 Bumblebee のソフトウェア実装は2つの部分から構成されています: * 画面外においてディスクリート GPU 上でプログラムをレンダリングして、内蔵ビデオカードを使ってディスプレイに表示する。このブリッジは VirtualGL または primus (下を参照) によるもので、外付けビデオカードで起動した X サーバーに接続されます。 * 外付けビデオカードが使用されていないときに無効化する ([[#電源管理|電源管理]]セクションを見て下さい)。 Bumblebee は Optimus テクノロジの挙動を模倣して、必要なときにレンダリングのためにディスクリート GPU を使用し、使われていないときは電源を落とします。現在のリリースではオンデマンドのレンダリングしかサポートされておらず、負担に応じて外付けビデオカードでプログラムを自動的に起動するのは実装されていません。 == インストール == Bumblebee をインストールする前に BIOS を確認して Optimus を有効にしてください (古いノートパソコンでは "switchable graphics" と呼ばれます)。BIOS によっては Optimus を有効にするオプションが存在しないこともあります。また、内蔵ビデオカード用に [[Intel Graphics|Intel ドライバー]]をインストールしてください。 完全なセットアップを行うために複数のパッケージが存在します: * {{Pkg|bumblebee}} - デーモンとクライアントのプログラムが入っているメインのパッケージ。 * (任意) {{Pkg|bbswitch}} (または {{AUR|bbswitch-dkms}}) - NVIDIA カードを無効化して電力を抑えたいときに推奨。 * (任意) 電力の節約以上のことがしたい場合、単体の NVIDIA カードでレンダリングするには以下も必要になります: ** NVIDIA カードのドライバー。オープンソースの [[nouveau|nouveau]] ドライバーまたはクローズドソースの [[NVIDIA|NVIDIA]] ドライバー。サブセクションを参照してください。 ** レンダー/ディスプレイブリッジ。現在 {{Pkg|primus}} (もしくは {{AUR|primus-git}}) と {{Pkg|virtualgl}} の2つのパッケージが利用可能です。必要なのはどちらか片方だけですが、両方インストールしても問題ありません。 * (任意) テストプログラムの glxgears を実行したいときは、mesa-demos パッケージをインストールしてください。 * (任意) テストプログラムの glxspheres や glxspheres64 を実行したいときは、virtualgl パッケージをインストールしてください。 {{Note|64ビット環境で32ビットのアプリケーションを実行したいならば、プログラムにあわせて適当な lib32-* ライブラリをインストールしなくてはなりません。さらにライブラリの他に、使用するレンダーブリッジによって、{{Pkg|lib32-virtualgl}} か {{Pkg|lib32-primus}} のどちらかをインストールする必要があります。Primus レンダーブリッジを使用すると決めたときは {{ic|optirun}} の代わりに {{ic|primusrun}} を実行するようにしてください。}} === Intel/NVIDIA で Bumblebee をインストール === {{Pkg|mesa-dri}}, {{Pkg|xf86-video-intel}}, {{Pkg|bumblebee}}, {{Pkg|nvidia}} をインストールしてください。既に {{Pkg|mesa-dri}} と {{Pkg|xf86-video-intel}} をインストールしている場合でも、{{Pkg|mesa-dri}} と {{Pkg|nvidia}} の依存関係の衝突を避けるために全て一緒に再インストールする必要があります。 64ビット環境で32ビットのアプリケーションを実行 (wine でゲームを動かすなど) したいときは {{Pkg|lib32-nvidia-utils}} も必要です ({{ic|primusrun}} を使用する場合は {{Pkg|lib32-mesa-dri}} も)。 {{Warning|{{pkg|lib32-nvidia-libgl}} はインストールしないで下さい。Bumblebee はこのパッケージがなくても適切な lib32 の NVIDIA ライブラリを見つけます。}} === Intel/Nouveau で Bumblebee をインストール === {{Warning|この方法は非推奨になっており、おそらく動作しません。代わりに nvidia モジュールを使って下さい。nouveau を使いたい場合は、[[PRIME]] を使用してください。}} 以下をインストール: * {{Pkg|xf86-video-nouveau}} - 実験的な 3D アクセラレーションドライバー。 * {{Pkg|nouveau-dri}} - Mesa classic DRI + Gallium3D ドライバー。 * {{Pkg|mesa}} - Mesa 3D グラフィックライブラリ。 == Bumblebee の起動 == Bumblebee を使うにはユーザーを bumblebee グループに追加する必要があります: # gpasswd -a $USER bumblebee {{ic|$USER}} は追加するユーザーのログイン名に置き換えて下さい。一度ログオフしてからログインしなおすことでグループの変更が適用されます。 {{Tip|ブート時に '''bumblebee''' を起動したい場合は、[[systemd|systemd]] サービスの '''bumblebeed''' を有効化してください。}} これで完了です。システムを再起動したらシェルプログラム {{ic|[[#使用方法|optirun]]}} を使って Optimus NVIDIA レンダリングが行えます。 NVIDIA カードを無効化したいだけなら、後は {{ic|bbswitch}} をインストールするだけで必要なことは終わりです。デフォルトで、bumblebeed デーモンは起動した時にカードの電源を切るように bbswitch に命令します。下の[[#電源管理|電源管理]]セクションを参照してください。 == 使用方法 == Optimus NVIDIA カードでアプリケーションを動かしたいときは Bumblebee に入っているコマンドラインプログラム {{ic|optirun}} が良き相棒となってくれるでしょう。 Optimus システムで Bumblebee が動作するかテストしてみてください: $ optirun glxgears -info 成功だったらターミナルに NVIDIA について何か Optimus with Bumblebee is working! のような表示がされます。 失敗する場合、次のコマンドを試して下さい (64ビット環境): $ optirun glxspheres64 -info もしくは、32ビット環境ならば: $ optirun glxspheres -info 基本的な使用方法: $ optirun [options] ''application'' [application-parameters] 使用例: Windows アプリケーションを Optimus で起動: $ optirun wine ''windows application''.exe NVIDIA Settings を Optimus で使う: $ optirun -b none nvidia-settings -c :8 {{ic|optirun}} で使えるオプションのリストはマニュアルページを見て下さい。 パフォーマンスで優れる新しいプログラム primus がすぐにデフォルトの選択になるでしょう。今のところは別個にプログラムを実行する必要がありますが ({{ic|optirun}} とは違ってオプションを指定できません)、将来的には optirun によって実行されるようになる予定です。使用方法: $ primusrun glxgears == 設定 == 必要に応じて Bumblebee の挙動は設定をすることが可能です。速度の最適化や電源管理などの調整は {{ic|/etc/bumblebee/bumblebee.conf}} で設定することができます。 === VirtualGL をブリッジとして使って速度を最適化 === Bumblebee は VirtualGL によって裏の X サーバーで Optimus NVIDIA カードを使ってフレームをレンダリングし、表の X サーバーに転送を行います。 フレームは転送される前に圧縮が施され、それによって帯域を節約して bumblebee の高速化・最適化とすることができます: 単一のアプリケーションで別の圧縮方式を使うには: $ optirun -c ''compress-method'' application 圧縮方式は CPU と GPU の使用におけるパフォーマンスに影響を与えます。({{ic|jpeg}} などの) 圧縮方式を使うと CPU の負担は多くなりますが GPU の負担は最小限に抑えられます。逆に非圧縮の方式を使うと GPU の負担が高まり CPU の負担は減ります。 圧縮方式: {{ic|jpeg}}, {{ic|rgb}}, {{ic|yuv}}。 非圧縮方式: {{ic|proxy}}, {{ic|xv}}。 全てのアプリケーションで共通の圧縮方式を使いたい場合は {{ic|/etc/bumblebee/bumblebee.conf}} で {{ic|VGLTransport}} を {{ic|''compress-method''}} に設定してください: {{hc|/etc/bumblebee/bumblebee.conf|2= [...] [optirun] VGLTransport=proxy [...] }} また、VirtualGL がグラフィックカードからピクセルをリードバックするときの方法を変更することもできます。{{ic|VGL_READBACK}} 環境変数を {{ic|pbo}} に設定するとパフォーマンスが上がるかもしれません。以下の2つを比較してみてください: # PBO should be faster. VGL_READBACK=pbo optirun glxspheres64 # The default value is sync. VGL_READBACK=sync optirun glxspheres64 もしくは、32ビット環境の場合: # PBO should be faster. VGL_READBACK=pbo optirun glxspheres # The default value is sync. VGL_READBACK=sync optirun glxspheres {{Note|CPU の周波数スケーリングはレンダリングパフォーマンスに直接影響を与えます。}} === 電源管理 === 電源管理機能の目的は NVIDIA のカードが bumblebee によって使われていないときに電源を切ることです。bbswitch がインストールされていれば、Bumblebee デーモンが起動した時に自動で検知されます。追加の設定は必要ありません。 ==== bbswitch を使って NVIDIA カードのデフォルトの電源状態を設定 ==== bbswitch のデフォルトの挙動はカードの電源状態を変更しません。{{ic|bumblebeed}} が起動時にカードを無効化します。したがって以下は bumblebeed を使わずに bbswitch を使用する場合にのみ必要になります。 必要に応じてモジュールオプションの {{ic|load_state}} と {{ic|unload_state}} を設定してください ([https://github.com/Bumblebee-Project/bbswitch bbswitch のドキュメント]を参照)。 {{hc|/etc/modprobe.d/bbswitch.conf|2= options bbswitch load_state=0 unload_state=1 }} ==== シャットダウン中に NVIDIA カードを有効にする ==== システムのシャットダウン時にカードの電源がオフになっていた場合、次の起動時に NVIDIA のカードは正しく初期化されないことがあります。一つの手として {{ic|/etc/bumblebee/bumblebee.conf}} に {{ic|TurnCardOffAtExit=false}} を設定することができますが、これでは Bumblebee デーモンが停止されるたびにカードが有効になってしまいます (たとえ手動で停止されたとしても)。シャットダウン中に NVIDIA カードの電源が入っているようにするには、以下の [[systemd|systemd]] サービスを追加してください ({{pkg|bbswitch}} を使用している場合): {{hc|/etc/systemd/system/nvidia-enable.service|2= [Unit] Description=Enable NVIDIA card DefaultDependencies=no [Service] Type=oneshot ExecStart=/bin/sh -c 'echo ON > /proc/acpi/bbswitch' [Install] WantedBy=shutdown.target }} そして root で {{ic|systemctl enable nvidia-enable.service}} を実行してサービスを有効にしてください。 === マルチモニター === ==== Intel のチップに出力が接続されている場合 ==== 端子 (DisplayPort/HDMI/VGA) が Intel のチップに接続されている場合、{{ic|xorg.conf}} でマルチモニターをセットアップすることができます。モニターが Intel カードを使うように設定しても、Bumblebee は NVIDIA カードを使用することが可能です。以下は解像度が 1080p の同等な2つのモニターで HDMI 出力を使う設定です。 {{hc|/etc/X11/xorg.conf|2= Section "Screen" Identifier "Screen0" Device "intelgpu0" Monitor "Monitor0" DefaultDepth 24 Option "TwinView" "0" SubSection "Display" Depth 24 Modes "1980x1080_60.00" EndSubSection EndSection Section "Screen" Identifier "Screen1" Device "intelgpu1" Monitor "Monitor1" DefaultDepth 24 Option "TwinView" "0" SubSection "Display" Depth 24 Modes "1980x1080_60.00" EndSubSection EndSection Section "Monitor" Identifier "Monitor0" Option "Enable" "true" EndSection Section "Monitor" Identifier "Monitor1" Option "Enable" "true" EndSection Section "Device" Identifier "intelgpu0" Driver "intel" Option "XvMC" "true" Option "UseEvents" "true" Option "AccelMethod" "UXA" BusID "PCI:0:2:0" EndSection Section "Device" Identifier "intelgpu1" Driver "intel" Option "XvMC" "true" Option "UseEvents" "true" Option "AccelMethod" "UXA" BusID "PCI:0:2:0" EndSection Section "Device" Identifier "nvidiagpu1" Driver "nvidia" BusID "PCI:0:1:0" EndSection }} おそらく BusID は変更する必要があります (Intel と NVIDIA カード両方)。 {{hc|<nowiki>$ lspci | grep VGA</nowiki>| 00:02.0 VGA compatible controller: Intel Corporation 2nd Generation Core Processor Family Integrated Graphics Controller (rev 09) }} BusID は 0:2:0 です。 ==== NVIDIA のチップに出力が接続されている場合 ==== On some notebooks, the digital Video Output (HDMI or DisplayPort) is hardwired to the NVIDIA chip. If you want to use all the displays on such a system simultaniously, you have to run 2 X Servers. The first will be using the Intel driver for the notebooks panel and a display connected on VGA. The second will be started through optirun on the NVIDIA card, and drives the digital display. There are currently several instructions on the web how such a setup can be made to work. One can be found on the bumblebee [https://github.com/Bumblebee-Project/Bumblebee/wiki/Multi-monitor-setup wiki page]. Another approach is described below. ===== xf86-video-intel-virtual-crtc と hybrid-screenclone ===== This method uses a patched Intel driver, which is extended to have a VIRTUAL Display, and the program hybrid-screenclone which is used to copy the display over from the virtual display to a second X Server which is running on the NVIDIA card using Optirun. Credit goes to [http://judsonsnotes.com/notes/index.php?option=com_content&view=article&id=673:triple-head-monitors-on-thinkpad-t520&catid=37:tech-notes&Itemid=59 Triple-head monitors on a Thinkpad T520] {{Dead link|2014|10|03}} which has a detailed explanation on how this is done on a Ubuntu system. For simplicity, DP is used below to refer to the Digital Output (DisplayPort). The instructions should be the same if the notebook has a HDMI port instead. * Set system to use NVIDIA card exclusively, test DP/Monitor combination and generate xorg.nvidia.conf. This step is not required, but recommended if your system Bios has an option to switch the graphics into NVIDIA-only mode. To do this, first uninstall the bumblebee package and install just the NVIDIA driver. Then reboot, enter the Bios and switch the Graphics to NVIDIA-only. When back in Arch, connect you Monitor on DP and use startx to test if it is working in principle. Use Xorg -configure to generate an xorg.conf file for your NVIDIA card. This will come in handy further down below. * Reinstall bumlbebee and bbswitch, reboot and set the system Gfx back to Hybrid in the BIOS. * Install {{AUR|xf86-video-intel-virtual-crtc}}, and replace your xf86-video-intel package with it. * Install {{AUR|screenclone-git}} * Change these bumblebee.conf settings: {{hc|/etc/bumblebee/bumblebee.conf|2= KeepUnusedXServer=true Driver=nvidia }} {{Note|Leave the PMMethod set to "bumblebee". This is contrary to the instructions linked in the article above, but on arch this options needs to be left alone so that bbswitch module is automatically loaded}} * Copy the xorg.conf generated in Step 1 to {{ic|/etc/X11}} (e.g. {{ic|/etc/X11/xorg.nvidia.conf}}). In the [driver-nvidia] section of {{ic|bumblebee.conf}}, change {{ic|XorgConfFile}} to point to it. * Test if your {{ic|/etc/X11/xorg.nvidia.conf}} is working with {{ic|startx -- -config /etc/X11/xorg.nvidia.conf}} * In order for your DP Monitor to show up with the correct resolution in your VIRTUAL Display you might have to edit the Monitor section in your {{ic|/etc/X11/xorg.nvidia.conf}}. Since this is extra work, you could try to continue with your auto-generated file. Come back to this step in the instructions if you find that the resolution of the VIRTUAL Display as shown by xrandr is not correct. ** First you have to generate a Modeline. You can use the tool [http://zi.fi/amlc/ amlc], which will genearte a Modeline if you input a few basic parameters. ::Example: 24" 1920x1080 Monitor ::start the tool with {{ic|amlc -c}} {{bc|Monitor Identifier: Samsung 2494 Aspect Ratio: 2 physical size[cm]: 60 Ideal refresh rate, in Hz: 60 min HSync, kHz: 40 max HSync, kHz: 90 min VSync, Hz: 50 max VSync, Hz: 70 max pixel Clock, MHz: 400}} This is the Monitor section which {{ic|amlc}} generated for this input: {{bc|Section "Monitor" Identifier "Samsung 2494" ModelName "Generated by Another Modeline Calculator" HorizSync 40-90 VertRefresh 50-70 DisplaySize 532 299 # Aspect ratio 1.778:1 # Custom modes Modeline "1920x1080" 174.83 1920 2056 2248 2536 1080 1081 1084 1149 # 174.83 MHz, 68.94 kHz, 60.00 Hz EndSection # Samsung 2494}} Change your {{ic|xorg.nvidia.conf}} to include this Monitor section. You can also trim down your file so that it only contains ServerLayout, Monitor, Device and Screen sections. For reference, here is mine: {{hc|/etc/X11/xorg.nvidia.conf| Section "ServerLayout" Identifier "X.org Nvidia DP" Screen 0 "Screen0" 0 0 InputDevice "Mouse0" "CorePointer" InputDevice "Keyboard0" "CoreKeyboard" EndSection Section "Monitor" Identifier "Samsung 2494" ModelName "Generated by Another Modeline Calculator" HorizSync 40-90 VertRefresh 50-70 DisplaySize 532 299 # Aspect ratio 1.778:1 # Custom modes Modeline "1920x1080" 174.83 1920 2056 2248 2536 1080 1081 1084 1149 # 174.83 MHz, 68.94 kHz, 60.00 Hz EndSection # Samsung 2494 Section "Device" Identifier "DiscreteNvidia" Driver "nvidia" BusID "PCI:1:0:0" EndSection Section "Screen" Identifier "Screen0" Device "DiscreteNvidia" Monitor "Samsung 2494" SubSection "Display" Viewport 0 0 Depth 24 EndSubSection EndSection }} * Plug in both external monitors and startx. Look at your {{ic|/var/log/Xorg.0.log}}. Check that your VGA Monitor is detected with the correct Modes there. You should also see a VIRTUAL output with modes show up. * Run {{ic|xrandr}} and three displays should be listed there, along with the supported modes. * If the listed Modelines for your VIRTUAL display doesn't have your Monitors native resolution, make note of the exact output name. For me that is {{ic|VIRTUAL1}}. Then have a look again in the Xorg.0.log file. You should see a message: "Output VIRTUAL1 has no monitor section" there. We will change this by putting a file with the needed Monitor section into {{ic|/etc/X11/xorg.conf.d}}. Exit and Restart X afterward. {{hc|/etc/X11/xorg.conf.d/20-monitor_samsung.conf| Section "Monitor" Identifier "VIRTUAL1" ModelName "Generated by Another Modeline Calculator" HorizSync 40-90 VertRefresh 50-70 DisplaySize 532 299 # Aspect ratio 1.778:1 # Custom modes Modeline "1920x1080" 174.83 1920 2056 2248 2536 1080 1081 1084 1149 # 174.83 MHz, 68.94 kHz, 60.00 Hz EndSection # Samsung 2494 }} * Turn the NVIDIA card on by running: {{ic|sudo tee /proc/acpi/bbswitch <<< ON}} * Start another X server for the DisplayPort monitor: {{ic|sudo optirun true}} * Check the log of the second X server in {{ic|/var/log/Xorg.8.log}} * Run xrandr to set up the VIRTUAL display to be the right size and placement, eg.: {{ic|xrandr --output VGA1 --auto --rotate normal --pos 0x0 --output VIRTUAL1 --mode 1920x1080 --right-of VGA1 --output LVDS1 --auto --rotate normal --right-of VIRTUAL1}} * Take note of the position of the VIRTUAL display in the list of Outputs as shown by xrandr. The counting starts from zero, i.e. if it is the third display shown, you would specify {{ic|-x 2}} as parameter to {{ic|screenclone}} (Note: This might not always be correct. If you see your internal laptop display cloned on the monitor, try {{ic|-x 2}} anyway.) * Clone the contents of the VIRTUAL display onto the X server created by bumblebee, which is connected to the DisplayPort monitor via the NVIDIA chip: : {{ic|screenclone -d :8 -x 2}} Thats it, all three displays should be up and running now. == Windows のように単体 GPU と内蔵 GPU を切り替える == Windows では、Optimus を必要とするアプリケーションのホワイトリストを NVIDIA が保持しており、必要に応じてホワイトリストにアプリケーションを追加することもできます。アプリケーションが起動した時に、どちらかのカードを使用するか自動的に決定します。 この挙動を Linux でも真似したい場合は、{{AUR|libgl-switcheroo-git}} を使うことができます。インストールした後、以下を .xprofile に追加してください。 {{hc|~/.xprofile|2= mkdir -p /tmp/libgl-switcheroo-$USER/fs gtkglswitch & libgl-switcheroo /tmp/libgl-switcheroo-$USER/fs & }} To enable this, you must add the below to the shell that you intend to launch applications from (I simply added it to the .xprofile file) export LD_LIBRARY_PATH=/tmp/libgl-switcheroo-$USER/fs/\$LIB${LD_LIBRARY_PATH+:}$LD_LIBRARY_PATH Once this has all been done, every application you launch from this shell will pop up a GTK+ window asking which card you want to run it with (you can also add an application to the whitelist in the configuration). The configuration is located in {{ic|$XDG_CONFIG_HOME/libgl-switcheroo.conf}}, usually {{ic|~/.config/libgl-switcheroo.conf}} {{Note|This tool acts by making a FUSE file system and then adding it into the dynamic library searching path, which may lead to slow spead or even segmentation faults when launching a software.}} == Bumblebee を使わないで CUDA == bumblebee を使わずに CUDA を使用することができます。必要なことは nvidia カードがオンになっているようにするだけです: # tee /proc/acpi/bbswitch <<< ON これで CUDA アプリケーションを起動した時に自動で必要なモジュールが全てロードされます。 CUDA を使った後に nvidia カードをオフにするには以下を実行: # rmmod nvidia_uvm # rmmod nvidia # tee /proc/acpi/bbswitch <<< OFF == トラブルシューティング == {{Note|[https://github.com/Bumblebee-Project/Bumblebee/wiki/Reporting-Issues wiki] で説明されているようにバグは [https://github.com/Bumblebee-Project/Bumblebee Bumblebee-Project] の GitHub トラッカーに報告してください。}} === [VGL] ERROR: Could not open display :8 === There is a known problem with some wine applications that fork and kill the parent process without keeping track of it (for example the free to play online game "Runes of Magic") This is a known problem with VirtualGL. As of bumblebee 3.1, so long as you have it installed, you can use Primus as your render bridge: $ optirun -b primus wine ''windows program''.exe If this does not work, an alternative walkaround for this problem is: $ optirun bash $ optirun wine ''windows program''.exe If using NVIDIA drivers a fix for this problem is to edit {{ic|/etc/bumblebee/xorg.conf.nvidia}} and change Option {{ic|ConnectedMonitor}} to {{ic|CRT-0}}. === [ERROR]Cannot access secondary GPU: No devices detected === ときどき、{{ic|optirun}} を実行すると以下のように返ってきてしまうことがあります: [ERROR]Cannot access secondary GPU - error: [XORG] (EE) No devices detected. [ERROR]Aborting because fallback start is disabled. この場合、{{ic|/etc/X11/xorg.conf.d/20-intel.conf}} ファイルをどこか別のところへ移動して、bumblebeed デーモンを[[systemd#ユニットを使う|再起動]]する必要があります。それで直ります。Intel モジュールの何らかの機能を変更しなくてはならない場合は、{{ic|/etc/X11/xorg.conf.d/20-intel.conf}} を {{ic|/etc/X11/xorg.conf}} にマージしてください。 また、{{ic|/etc/X11/xorg.conf.d/10-monitor.conf}} の driver 行をコメントアウトする必要があるかもしれません。 {{ic|nouveau}} ドライバーを使っている場合は {{ic|nvidia}} ドライバーに切り替えてみて下さい。 {{ic|lspci}} の出力を見て、適切な {{ic|BusID}} を使って、どこかで (例えば {{ic|/etc/X11/xorg.conf.d}} のファイル) NVIDIA カードを定義する必要があります: {{bc| Section "Device" Identifier "nvidiagpu1" Driver "nvidia" BusID "PCI:0:1:0" EndSection }} ==== NVIDIA(0): Failed to assign any connected display devices to X screen 0 ==== 以下のようにコンソール出力される場合: [ERROR]Cannot access secondary GPU - error: [XORG] (EE) NVIDIA(0): Failed to assign any connected display devices to X screen 0 [ERROR]Aborting because fallback start is disabled. {{ic|/etc/bumblebee/xorg.conf.nvidia}} の次の行を: Option "ConnectedMonitor" "DFP" 以下のように変更してください: Option "ConnectedMonitor" "CRT" ==== systemd-logind: failed to get session: PID XXX does not belong to any known session ==== 以下のようにコンソール出力される場合 (''PID'' は変わります): [ERROR]Cannot access secondary GPU - error: [XORG] (EE) systemd-logind: failed to get session: PID 753 does not belong to any known session [ERROR]Aborting because fallback start is disabled. {{ic|/etc/mkinitcpio.conf}} の MODULES を以下のように変更してください: MODULES="i915 bbswitch" もしくは: MODULES="i915 nouveau bbswitch" 変更したら次を実行してください: # mkinitcpio -p linux このコマンドはカーネルをアップデートするたびに実行する必要があります。 さらに、[[#Failed_to_initialize_the_NVIDIA_GPU_at_PCI:1:0:0_.28GPU_fallen_off_the_bus_.2F_RmInitAdapter_failed.21.29|下]]で解説されているようにカーネルパラメータを[[ブートローダー]]の設定に加える必要があるかもしれません。 ==== Failed to initialize the NVIDIA GPU at PCI:1:0:0 (GPU fallen off the bus / RmInitAdapter failed!) ==== {{ic|1=rcutree.rcu_idle_gp_delay=1}} を[[ブートローダー]]の設定の[[カーネルパラメータ]]に追加してください (元の [https://bbs.archlinux.org/viewtopic.php?id=169742 BBS の投稿]に設定例が載っています)。 ==== Could not load GPU driver ==== 以下のようにコンソール出力される場合: [ERROR]Cannot access secondary GPU - error: Could not load GPU driver そして nvidia モジュールをロードしようとすると以下のように表示される場合: modprobe nvidia modprobe: ERROR: could not insert 'nvidia': Exec format error {{aur|nvidia-dkms}} を使ったり [[ABS|ABS]] で {{pkg|nvidia}} をコンパイルして、最新のカーネルにあわせて nvidia パッケージを手動でコンパイルする必要があります。 ==== NOUVEAU(0): [drm] failed to set drm interface version ==== 公式の nvidia ドライバーに切り替えて下さい。[https://github.com/Bumblebee-Project/Bumblebee/issues/438#issuecomment-22005923 ここ]にあるコメントの通り、nouveau ドライバーにはカードによって bumblebee で問題が発生します。 === /dev/dri/card0: failed to set DRM interface version 1.4: Permission denied === This could be worked around by appending following lines in {{ic|/etc/bumblebee/xorg.conf.nvidia}} (see [https://github.com/Bumblebee-Project/Bumblebee/issues/580 here]): {{bc| Section "Screen" Identifier "Default Screen" Device "DiscreteNvidia" EndSection }} === ERROR: ld.so: object 'libdlfaker.so' from LD_PRELOAD cannot be preloaded: ignored === おそらく64ビット環境で bumblebee を使って32ビットアプリケーションを起動するのに必要なパッケージがインストールされていません。[[#インストール|インストール]]の "Note" ボックスを見て下さい。 === Fatal IO error 11 (Resource temporarily unavailable) on X server === {{ic|/etc/bumblebee/bumblebee.conf}} の {{ic|KeepUnusedXServer}} を {{ic|false}} から {{ic|true}} に変更してください。プログラムはバックグラウンドにフォークされ bumblebee はプログラムについて関知しません。 === ティアリング === ティアリングは Bumblebee でよくある問題です。修正するには、垂直同期を有効にする必要があります。Intel のカードではデフォルトで有効になっているはずですが、Xorg のログで確認してみてください。NVIDIA で垂直同期が有効になっているか確認するには、次を実行: $ optirun nvidia-settings -c :8 {{ic|1=X Server XVideo Settings -> Sync to VBlank}} and {{ic|1=OpenGL Settings -> Sync to VBlank}} should both be enabled. The Intel card has in general less tearing, so use it for video playback. Especially use VA-API for video decoding (e.g. {{ic|mplayer-vaapi}} and with {{ic|-vsync}} parameter). Intel カードでティアリングを修正する方法は [[Intel Graphics#ティアリングの解消|Intel]] の記事を見て下さい。 それでもティアリングが修正されない場合は、デスクトップ環境のコンポジットを無効にしてみてください。また、トリプルバッファも無効にしてみてください。 === Bumblebee がソケットに接続できない === 以下のような表示がされる場合: $ optirun glxspheres64 または (32ビットの場合): {{hc|$ optirun glxspheres| [ 1648.179533] [ERROR]You've no permission to communicate with the Bumblebee daemon. Try adding yourself to the 'bumblebee' group [ 1648.179628] [ERROR]Could not connect to bumblebee daemon - is it running? }} {{ic|bumblebee}} グループに既に入っているならば ({{ic|<nowiki>$ groups | grep bumblebee</nowiki>}})、ソケット {{ic|/var/run/bumblebeed.socket}} を[https://bbs.archlinux.org/viewtopic.php?pid=1178729#p1178729 削除]してみてください。 === ログイン後にコンソールから X.org を実行 (ルートレス X.org) === [[Xorg#Rootless Xorg (v1.16)|Xorg#Rootless Xorg (v1.16)]] を見て下さい。 == 参照 == * [http://www.bumblebee-project.org Bumblebee プロジェクトリポジトリy] * [http://wiki.bumblebee-project.org/ Bumblebee リポジトリ wiki] * [https://github.com/Bumblebee-Project/bbswitch Bumblebee プロジェクト bbswitch リポジトリ] freenode.net の #bumblebee に参加しましょう。
このページで使用されているテンプレート:
テンプレート:AUR
(
ソースを閲覧
)
テンプレート:Bc
(
ソースを閲覧
)
テンプレート:Hc
(
ソースを閲覧
)
テンプレート:Ic
(
ソースを閲覧
)
テンプレート:META Related articles start
(
ソースを閲覧
)
テンプレート:Note
(
ソースを閲覧
)
テンプレート:Pkg
(
ソースを閲覧
)
テンプレート:Related
(
ソースを閲覧
)
テンプレート:Related articles end
(
ソースを閲覧
)
テンプレート:Related articles start
(
ソースを閲覧
)
テンプレート:Tip
(
ソースを閲覧
)
Bumblebee
に戻る。
検索
検索
Bumblebeeのソースを表示
話題を追加