アイキャッチ
TOP > 夢想の断章 > Ollamaのインストール

Ollamaのインストール

Ollama(オラマ)は、LlamaやMistralなどの大規模言語モデル(LLM)を、 ローカル環境(≒パソコン)で手軽に実行できるオープンソースツールです。

ダウンロード・インストールを済ませてしまえば後はインターネット接続も不要で、 データを外部に送信してしまう心配をせずにAIを利用することが可能です。

Ollamaのダウンロード

ダウンロード・インストールに先立って、まずはインストール先となるフォルダを作成しておきましょう。

基本的には好きな場所で良いのですが、この記事に従って進められるのであれば 『D:\apps\ollama』という空のフォルダを作成してください。

Ollamaインストール用フォルダ作成

Ollamaの公式GitHubリポジトリ

GitHub - ollama/ollama: Get up and running with Kimi-K2.5, GLM-5, MiniMax, DeepSeek, gpt-oss, Qwen, Gemma and other models.
Get up and running with Kimi-K2.5, GLM-5, MiniMax, DeepSeek, gpt-oss, Qwen, Gemma and other models. - ollama/ollama

にアクセスします。

Ollama 公式リポジトリ

『Releases』と書かれた下にある『v0.20.0』と最新バージョンのバージョン番号が書かれた部分をクリックします。 (作業されているタイミングではバージョン番号は変わっている可能性があります。)

最新バージョン リリースページ

v0.20.0のリリースページに飛びますので、画面を下の方にスクロールさせてください。

必用ダウンロードファイルを探す

リリースファイルの一覧から『ollama-windows-amd64.zip』というファイルを探してクリックします。

ダウンロード進行中

『ollama-windows-amd64.zip』のダウンロードが開始しますので、完了するまで暫く待ちましょう。

ダウンロードフォルダを開く

ダウンロードが完了したら『ollama-windows-amd64.zip』のダウンロードされたフォルダを開きます。

Ollamaのインストール

ダウンロードされた『ollama-windows-amd64.zip』をダブルクリックして開きます。

ダウンロードファイルを開く

中にある全てのファイルを選択し、コピーします。

中のファイルを全て選んでコピー

初めに作成しておいたフォルダ『D:\apps\ollama』の中に、コピーしたファイル全てを貼り付けます。

コピーした全てのファイルを貼り付け

そこそこの容量があるのでファイルのコピーが完了するまでには少し時間がかかります。そのまま待ちましょう。

ファイルコピーが進行中

コピーが完了したらフォルダ『D:\apps\ollama』の中に『models』という空のフォルダを作成しておきます。

モデル用フォルダ作成

これで必要なファイルのインストール自体は完了です。

環境変数の設定

続けて、モデルを管理しやすいように、同じフォルダ配下に配置するよう環境変数を設定します。

PCを右クリックしてプロパティ

PCを右クリックして、出たメニューから『プロパティ』をクリックします。

【参考】デスクトップにPCのアイコンが出ていない方は、こちらを参考に作成しておかれると便利です。

WindowsのデスクトップにPCなどのアイコンを表示する方法 | クリゼミ
Windows 10やWindows 11のデスクトップの初期状態では、以前のWindowsではデフォルトで表示されていたPC(マイ コンピュータ)...
Windowsの設定画面

Windowsの設定画面が開きますので、右エリアを下方向にスクロールさせます。

『システムの詳細設定』リンク

『システムの詳細設定』と書かれたリンクを見つけ、それをクリックします。

システムのプロパティ画面

『システムのプロパティ』が開きますので、『環境変数』と書かれたボタンをクリックします。

環境変数の設定画面が開きます。/p> 環境変数の設定画面

下部の『システム環境変数』の下にある『新規』ボタンをクリックします。

新しいシステム変数

『新しいシステム変数』ダイアログが開くので、変数名に『OLLAMA_MODELS』、変数値に『D:\apps\ollama\models』と打ち込んだうえで『OK』ボタンを押します。

環境変数に追加された

システム環境変数の一覧に『OLLAMA_MODELS』が追加され、値にいま設定したフォルダのパスが入っていることを確認して、『OK』ボタンを押して確定させます。

システムのプロパティを確定

更に『システムのプロパティ』画面に戻ってきますので、そちらも『OK』ボタンを押して確定させた上で閉じます。

設定を確定

Windowsの設定画面に戻りますので、そちらも『×』ボタンを押して閉じます。これで今の変更が完全に確定します。

Ollamaの起動確認

Windowsのスタートボタンから『Windows システムツール』⇒『コマンド プロンプト』を実行します。

コマンドプロンプトを開く

コマンドプロンプトが開くので『cd /d D:\apps\ollama』と打って『Enter』キーを押し、『D:\apps\ollama』フォルダに移ります。

チェンジディレクトリコマンド

プロンプトが『D:\apps\ollama』に変わったことを確認し、『ollama serve』と打ち込んで『Enter』キーで実行します。

Ollamaサーバー起動コマンド

ウェブブラウザを開き、アドレス欄に打ち込んで『http://localhost:11434/』を開きます。

Ollamaサーバー起動確認ページ

ページが表示され『Ollama is running』と表示されれば、Ollamaは正常に実行できています。

ここまでのインストール作業にも、致命的なミスは無いと考えて良いでしょう。

Ollamaの終了方法

まず、今開いたウェブページについては単なる確認用なので、確認出来たらウィンドウの『×』ボタンで閉じてしまって問題ありません。

ウェブブラウザを閉じる

次にOllamaサーバーですが、起動したコマンドプロンプトは実行中のまま(入力待ちに戻っていない状態)のはずなので、『Ctrl』+『C』キーを押します。

実行中のOllamaを止める

コマンド入力待ちの状態に戻ってくると思います。他に使う予定が無ければコマンドプロンプト自体も閉じてしまって大丈夫です。

おまけ

インストールが完了したら、ぜひ続けて、Ollmaを使った超軽量な自律型AIアシスタント『舎弟(Shatei)』をインストールしてみてください。

超軽量ローカルAIアシスタント『舎弟(Shatei)』のインストール | クリゼミ
10年前のパソコンで動かしても固まらない超軽量なローカル自律型AIアシスタント『舎弟(Shatei)』。そのダウンロードからイン...

Radeon RX580しか挿さっていない第四世代Core i5でも、 完全にローカルでAIに作業をさせながら、ゲームや動画編集・ビデオ会議までサクサク動く極めつけの軽さです。

ローカルでAIアシスタントを動かしたいと考えておられるなら、お試しあれ!


そしてOllamaの公式ウェブサイトはこちらになります。

Ollama
Ollama is the easiest way to automate your work using open models, while keeping your data safe.

こちらのページには、実は一発でインストールできるコマンドが書いてあります。

Ollama公式ウェブサイト

このコマンドを実行すれば、インストーラーが起動し確かに簡単にインストールが可能です。

…が、ちょっと面倒な(扱いづらい)場所にインストールされますので、特に開発などで頻繁に使いたい場合は、 このコマンドに頼らず、今回の方法でインストールした方が良いと思います。

(2026/04/03)