MENU

WindowsでOllamaを使うための推奨手順

目次

最も推奨される方法:公式Windows版をインストール

概要

2024年後半から、OllamaはWindows向けにネイティブ実行可能な公式ビルドを提供している。
インストーラ形式で導入でき、追加の仮想環境(WSLやDocker)は不要である。
一般ユーザーから開発者まで、すべての用途でこの方法が推奨される。

手順

  1. 公式サイトからインストーラをダウンロード
    https://ollama.com/download
  2. インストーラを実行
    ダウンロードした OllamaSetup.exe を起動し、指示に従ってセットアップする。
  3. 動作確認
    インストール後、PowerShellまたはWindows Terminalで以下を実行する。 ollama run llama3 初回実行時にモデルが自動ダウンロードされ、以降はローカルで推論が行われる。

特徴

項目内容
対応GPUNVIDIA GPU(CUDA対応)推奨。CPUモードも可
既定の保存先C:\Users\<ユーザー名>\.ollama
自動起動サービスとして常駐(再起動時も利用可)
環境変数OLLAMA_HOST, OLLAMA_MODELS, OLLAMA_API_KEYなどが設定可能

代替方法:WSL上でLinux版Ollamaを動かす

概要

Linux向けのOllamaバイナリを、WSL2環境(例:Ubuntu)で動作させる方法。
GPUを利用したい場合は、Windows上のCUDAサポートが有効化されたWSL2が必要。
ただし、公式Windows版の登場により、この方法は非推奨になりつつある。

手順(Ubuntu on WSL2)

curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3

※ GPUを使う場合は、NVIDIAドライバがWindowsホストにインストールされており、WSL統合が有効である必要がある。

向いているケース

  • WSL上で他のLinuxツールと連携させたい場合
  • サーバ的に扱いたい(例:FlaskやFastAPI経由でOllama APIを呼び出す)

Docker版(開発・検証用途向け)

OllamaはDockerイメージも提供しており、環境を隔離して動かしたい場合に有効である。

手順

docker run -d -p 11434:11434 ollama/ollama

Windows環境でGPUを使いたい場合は、Docker Desktop設定で 「Use the WSL 2 based engine」および「GPU support」 を有効にする必要がある。


利用例

モデルの一覧確認

ollama list

モデルのダウンロード

ollama pull mistral

APIとして利用

OllamaはローカルHTTPサーバを起動するため、以下のようにcurlでアクセス可能。

curl http://localhost:11434/api/generate -d "{ \"model\": \"llama3\", \"prompt\": \"Hello\" }"


推奨構成まとめ

利用形態推奨方法備考
一般ユーザー・開発者公式Windows版最も安定・簡単
Linux互換ツールと併用WSL2上のOllama非推奨(用途限定)
実験・検証・CI環境Docker版軽量な検証用

補足:Windows環境でのトラブル回避

  • PATH設定:インストール時に自動設定されるが、ollamaが認識されない場合は再ログインを行う。
  • GPU未検出:NVIDIAドライバを最新に更新し、nvidia-smiがWindows上で動作することを確認する。
  • WSLとの干渉:同時にLinux版Ollamaを起動しているとポート衝突(11434)が発生するため注意。

結論

WindowsでOllamaを使う場合、公式Windows版インストーラから導入するのが最も推奨される。
これにより、GPU利用・サービス常駐・API連携などが容易に実現でき、WSLやDockerを併用する必要がない。

参考:

目次