<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ja">
	<id>https://wiki.archlinux.jp/index.php?action=history&amp;feed=atom&amp;title=Ollama</id>
	<title>Ollama - 版の履歴</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.archlinux.jp/index.php?action=history&amp;feed=atom&amp;title=Ollama"/>
	<link rel="alternate" type="text/html" href="https://wiki.archlinux.jp/index.php?title=Ollama&amp;action=history"/>
	<updated>2026-05-03T15:13:10Z</updated>
	<subtitle>このウィキのこのページに関する変更履歴</subtitle>
	<generator>MediaWiki 1.44.3</generator>
	<entry>
		<id>https://wiki.archlinux.jp/index.php?title=Ollama&amp;diff=41487&amp;oldid=prev</id>
		<title>Kusanaginoturugi: 訳出</title>
		<link rel="alternate" type="text/html" href="https://wiki.archlinux.jp/index.php?title=Ollama&amp;diff=41487&amp;oldid=prev"/>
		<updated>2026-04-27T09:24:39Z</updated>

		<summary type="html">&lt;p&gt;訳出&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新規ページ&lt;/b&gt;&lt;/p&gt;&lt;div&gt;[[Category:開発]]&lt;br /&gt;
[[Category:グラフィック]]&lt;br /&gt;
[[en:Ollama]]&lt;br /&gt;
[[zh-hans:Ollama]]&lt;br /&gt;
{{Related articles start}}&lt;br /&gt;
{{Related|GPGPU}}&lt;br /&gt;
{{Related|llama.cpp}}&lt;br /&gt;
{{Related|Vulkan}}&lt;br /&gt;
{{Related articles end}}&lt;br /&gt;
&lt;br /&gt;
[https://ollama.com Ollama] は、オフラインの大規模言語モデルをローカルで実行できるアプリケーションです。&lt;br /&gt;
&lt;br /&gt;
== インストール ==&lt;br /&gt;
&lt;br /&gt;
{{Pkg|ollama}} パッケージを[[インストール]]してください。このパッケージはデーモン、コマンドラインツール、CPU 推論を提供します。&lt;br /&gt;
&lt;br /&gt;
GPU 推論の場合:&lt;br /&gt;
&lt;br /&gt;
* [[CUDA]] で推論するには {{Pkg|ollama-cuda}} をインストールしてください。&lt;br /&gt;
* [[ROCm]] で推論するには {{Pkg|ollama-rocm}} をインストールしてください。&lt;br /&gt;
* [[Vulkan]] で推論するには {{Pkg|ollama-vulkan}} をインストールしてください ([https://docs.ollama.com/gpu#vulkan-gpu-support 実験的])。&lt;br /&gt;
&lt;br /&gt;
次に、{{ic|ollama.service}} を[[有効化/起動]]してください。その後、Ollama の状態を確認します:&lt;br /&gt;
&lt;br /&gt;
 $ ollama --version&lt;br /&gt;
&lt;br /&gt;
{{ic|Warning: could not connect to a running Ollama instance}} と表示される場合、Ollama サービスが実行されていません。それ以外の場合、Ollama サービスは実行中であり、ユーザーからのリクエストを受け付ける準備ができています。&lt;br /&gt;
&lt;br /&gt;
次に、モデルを実行できることを確認します。以下のコマンドは、最新の [https://ollama.com/library/gemma3:270m Gemma 3 の 270M パラメータモデル] をダウンロードし、モデルと対話できる Ollama プロンプトを返します:&lt;br /&gt;
&lt;br /&gt;
{{hc|$ ollama run gemma3:270m|&lt;br /&gt;
&amp;gt;&amp;gt;&amp;gt; Send a message (/? for help)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== 使用方法 ==&lt;br /&gt;
&lt;br /&gt;
Ollama の実行ファイルは検索インターフェイスを提供していません。{{ic|ollama search}} というコマンドは存在しません。モデルを検索するには、[https://ollama.com/search 検索ページ] にアクセスする必要があります。&lt;br /&gt;
&lt;br /&gt;
モデルを実行するには:&lt;br /&gt;
&lt;br /&gt;
 $ ollama run &amp;#039;&amp;#039;model&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
モデルを停止するには:&lt;br /&gt;
&lt;br /&gt;
 $ ollama stop &amp;#039;&amp;#039;model&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
モデルを更新するには:&lt;br /&gt;
&lt;br /&gt;
 $ ollama pull &amp;#039;&amp;#039;model&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
モデルを削除するには:&lt;br /&gt;
&lt;br /&gt;
 $ ollama rm &amp;#039;&amp;#039;model&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
ローカルで利用可能なモデルを表示するには:&lt;br /&gt;
&lt;br /&gt;
 $ ollama list&lt;br /&gt;
&lt;br /&gt;
== トラブルシューティング ==&lt;br /&gt;
&lt;br /&gt;
=== ROCm が AMD GPU を利用しない ===&lt;br /&gt;
&lt;br /&gt;
Ollama セッション中に GPU の使用率を監視するために {{Pkg|amdgpu_top}} のようなユーティリティを使用したものの、GPU がまったく使われていないことに気づく場合があります。&lt;br /&gt;
&lt;br /&gt;
設定を行わない場合、[[ROCm]] は単に未対応の GPU を無視し、すべての計算が CPU で行われます。&lt;br /&gt;
&lt;br /&gt;
{{Note|対応 GPU については [https://rocm.docs.amd.com/projects/install-on-linux/en/latest/reference/system-requirements.html ROCm System Requirements] を参照して確認してください。}}&lt;br /&gt;
&lt;br /&gt;
これを回避するには、{{ic|ollama.service}} の[[ドロップインファイル]]を作成します:&lt;br /&gt;
&lt;br /&gt;
{{hc|/etc/systemd/system/ollama.service.d/override_gfx_version.conf|2=&lt;br /&gt;
[Service]&lt;br /&gt;
Environment=&amp;quot;HSA_OVERRIDE_GFX_VERSION=X.Y.Z&amp;quot;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
ここで、{{ic|X.Y.Z}} はシステムに搭載されている GFX バージョンに依存します。&lt;br /&gt;
&lt;br /&gt;
使用する GFX バージョンを決定するには、まず {{Pkg|rocminfo}} がすでにインストールされていることを確認してください。これは {{Pkg|rocblas}} の依存関係としてシステムに取り込まれているはずです。また、{{Pkg|rocblas}} 自体は {{Pkg|ollama-rocm}} の依存関係です。&lt;br /&gt;
&lt;br /&gt;
次に、システムの実際の GFX バージョンを問い合わせます:&lt;br /&gt;
&lt;br /&gt;
 $ /opt/rocm/bin/rocminfo | grep amdhsa&lt;br /&gt;
&lt;br /&gt;
{{ic|gfx}} という語の後に表示される数字を覚えておく必要があります。これがシステムの実際の GFX バージョンです。数字は以下のように解釈されます:&lt;br /&gt;
&lt;br /&gt;
* 数字が 4 桁の場合、{{ic|XX.Y.Z}} と解釈され、最初の 2 桁が {{ic|X}} の部分として解釈されます。&lt;br /&gt;
* 数字が 3 桁の場合、{{ic|X.Y.Z}} と解釈されます。&lt;br /&gt;
&lt;br /&gt;
次に、インストール済みのすべての {{Pkg|rocblas}} カーネルを探します:&lt;br /&gt;
&lt;br /&gt;
 $ find /opt/rocm/lib/rocblas/library -name &amp;#039;Kernels.so-*&amp;#039;&lt;br /&gt;
&lt;br /&gt;
{{ic|X.Y.Z}} には、そこで一覧表示された利用可能なバージョンのうち 1 つを設定する必要があります。ルールは以下のように要約できます:&lt;br /&gt;
&lt;br /&gt;
# {{ic|X}} の部分は、実際のバージョンと厳密に一致していなければなりません。&lt;br /&gt;
# {{ic|Y}} の部分は、不一致が許されますが、実際のバージョン以下でなければなりません。&lt;br /&gt;
# {{ic|Z}} の部分は、不一致が許されますが、実際のバージョン以下でなければなりません。&lt;br /&gt;
&lt;br /&gt;
正しい {{ic|X.Y.Z}} を設定した後、[[daemon-reload]] を実行し、{{ic|ollama.service}} を[[再起動]]してください。&lt;br /&gt;
&lt;br /&gt;
その後、通常どおりモデルを実行します。必要であれば、もう一度 {{Pkg|amdgpu_top}} で GPU 使用率を監視してもよいでしょう。&lt;br /&gt;
&lt;br /&gt;
=== Ollama をアンインストールしてもモデルが削除されない ===&lt;br /&gt;
&lt;br /&gt;
モデルファイルは手動で削除できます。モデルファイルは {{ic|/var/lib/ollama/blobs}} に保存されています。&lt;br /&gt;
&lt;br /&gt;
== 参照 ==&lt;br /&gt;
&lt;br /&gt;
* [https://ollama.com/blog Ollama Blog]&lt;br /&gt;
* [https://docs.ollama.com Ollama Docs]&lt;/div&gt;</summary>
		<author><name>Kusanaginoturugi</name></author>
	</entry>
</feed>