目次
最も推奨される方法:公式Windows版をインストール
概要
2024年後半から、OllamaはWindows向けにネイティブ実行可能な公式ビルドを提供している。
インストーラ形式で導入でき、追加の仮想環境(WSLやDocker)は不要である。
一般ユーザーから開発者まで、すべての用途でこの方法が推奨される。
手順
- 公式サイトからインストーラをダウンロード
https://ollama.com/download - インストーラを実行
ダウンロードしたOllamaSetup.exeを起動し、指示に従ってセットアップする。 - 動作確認
インストール後、PowerShellまたはWindows Terminalで以下を実行する。ollama run llama3初回実行時にモデルが自動ダウンロードされ、以降はローカルで推論が行われる。
特徴
| 項目 | 内容 |
|---|---|
| 対応GPU | NVIDIA GPU(CUDA対応)推奨。CPUモードも可 |
| 既定の保存先 | C:\Users\<ユーザー名>\.ollama |
| 自動起動 | サービスとして常駐(再起動時も利用可) |
| 環境変数 | OLLAMA_HOST, OLLAMA_MODELS, OLLAMA_API_KEYなどが設定可能 |
代替方法:WSL上でLinux版Ollamaを動かす
概要
Linux向けのOllamaバイナリを、WSL2環境(例:Ubuntu)で動作させる方法。
GPUを利用したい場合は、Windows上のCUDAサポートが有効化されたWSL2が必要。
ただし、公式Windows版の登場により、この方法は非推奨になりつつある。
手順(Ubuntu on WSL2)
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3
※ GPUを使う場合は、NVIDIAドライバがWindowsホストにインストールされており、WSL統合が有効である必要がある。
向いているケース
- WSL上で他のLinuxツールと連携させたい場合
- サーバ的に扱いたい(例:FlaskやFastAPI経由でOllama APIを呼び出す)
Docker版(開発・検証用途向け)
OllamaはDockerイメージも提供しており、環境を隔離して動かしたい場合に有効である。
手順
docker run -d -p 11434:11434 ollama/ollama
Windows環境でGPUを使いたい場合は、Docker Desktop設定で 「Use the WSL 2 based engine」および「GPU support」 を有効にする必要がある。
利用例
モデルの一覧確認
ollama list
モデルのダウンロード
ollama pull mistral
APIとして利用
OllamaはローカルHTTPサーバを起動するため、以下のようにcurlでアクセス可能。
curl http://localhost:11434/api/generate -d "{ \"model\": \"llama3\", \"prompt\": \"Hello\" }"
推奨構成まとめ
| 利用形態 | 推奨方法 | 備考 |
|---|---|---|
| 一般ユーザー・開発者 | 公式Windows版 | 最も安定・簡単 |
| Linux互換ツールと併用 | WSL2上のOllama | 非推奨(用途限定) |
| 実験・検証・CI環境 | Docker版 | 軽量な検証用 |
補足:Windows環境でのトラブル回避
- PATH設定:インストール時に自動設定されるが、
ollamaが認識されない場合は再ログインを行う。 - GPU未検出:NVIDIAドライバを最新に更新し、
nvidia-smiがWindows上で動作することを確認する。 - WSLとの干渉:同時にLinux版Ollamaを起動しているとポート衝突(11434)が発生するため注意。
結論
WindowsでOllamaを使う場合、公式Windows版インストーラから導入するのが最も推奨される。
これにより、GPU利用・サービス常駐・API連携などが容易に実現でき、WSLやDockerを併用する必要がない。
参考:
- 公式サイト:https://ollama.com/
- ドキュメント:https://github.com/ollama/ollama