Ollamaのインストール
Ollama(オラマ)は、LlamaやMistralなどの大規模言語モデル(LLM)を、 ローカル環境(≒パソコン)で手軽に実行できるオープンソースツールです。
ダウンロード・インストールを済ませてしまえば後はインターネット接続も不要で、 データを外部に送信してしまう心配をせずにAIを利用することが可能です。
Ollamaのダウンロード
ダウンロード・インストールに先立って、まずはインストール先となるフォルダを作成しておきましょう。
基本的には好きな場所で良いのですが、この記事に従って進められるのであれば 『D:\apps\ollama』という空のフォルダを作成してください。
Ollamaの公式GitHubリポジトリ
にアクセスします。
『Releases』と書かれた下にある『v0.20.0』と最新バージョンのバージョン番号が書かれた部分をクリックします。 (作業されているタイミングではバージョン番号は変わっている可能性があります。)
v0.20.0のリリースページに飛びますので、画面を下の方にスクロールさせてください。
リリースファイルの一覧から『ollama-windows-amd64.zip』というファイルを探してクリックします。
『ollama-windows-amd64.zip』のダウンロードが開始しますので、完了するまで暫く待ちましょう。
ダウンロードが完了したら『ollama-windows-amd64.zip』のダウンロードされたフォルダを開きます。
Ollamaのインストール
ダウンロードされた『ollama-windows-amd64.zip』をダブルクリックして開きます。
中にある全てのファイルを選択し、コピーします。
初めに作成しておいたフォルダ『D:\apps\ollama』の中に、コピーしたファイル全てを貼り付けます。
そこそこの容量があるのでファイルのコピーが完了するまでには少し時間がかかります。そのまま待ちましょう。
コピーが完了したらフォルダ『D:\apps\ollama』の中に『models』という空のフォルダを作成しておきます。
これで必要なファイルのインストール自体は完了です。
環境変数の設定
続けて、モデルを管理しやすいように、同じフォルダ配下に配置するよう環境変数を設定します。
PCを右クリックして、出たメニューから『プロパティ』をクリックします。
【参考】デスクトップにPCのアイコンが出ていない方は、こちらを参考に作成しておかれると便利です。
Windowsの設定画面が開きますので、右エリアを下方向にスクロールさせます。
『システムの詳細設定』と書かれたリンクを見つけ、それをクリックします。
『システムのプロパティ』が開きますので、『環境変数』と書かれたボタンをクリックします。
環境変数の設定画面が開きます。/p>
下部の『システム環境変数』の下にある『新規』ボタンをクリックします。
『新しいシステム変数』ダイアログが開くので、変数名に『OLLAMA_MODELS』、変数値に『D:\apps\ollama\models』と打ち込んだうえで『OK』ボタンを押します。
システム環境変数の一覧に『OLLAMA_MODELS』が追加され、値にいま設定したフォルダのパスが入っていることを確認して、『OK』ボタンを押して確定させます。
更に『システムのプロパティ』画面に戻ってきますので、そちらも『OK』ボタンを押して確定させた上で閉じます。
Windowsの設定画面に戻りますので、そちらも『×』ボタンを押して閉じます。これで今の変更が完全に確定します。
Ollamaの起動確認
Windowsのスタートボタンから『Windows システムツール』⇒『コマンド プロンプト』を実行します。
コマンドプロンプトが開くので『cd /d D:\apps\ollama』と打って『Enter』キーを押し、『D:\apps\ollama』フォルダに移ります。
プロンプトが『D:\apps\ollama』に変わったことを確認し、『ollama serve』と打ち込んで『Enter』キーで実行します。
ウェブブラウザを開き、アドレス欄に打ち込んで『http://localhost:11434/』を開きます。
ページが表示され『Ollama is running』と表示されれば、Ollamaは正常に実行できています。
ここまでのインストール作業にも、致命的なミスは無いと考えて良いでしょう。
Ollamaの終了方法
まず、今開いたウェブページについては単なる確認用なので、確認出来たらウィンドウの『×』ボタンで閉じてしまって問題ありません。
次にOllamaサーバーですが、起動したコマンドプロンプトは実行中のまま(入力待ちに戻っていない状態)のはずなので、『Ctrl』+『C』キーを押します。
コマンド入力待ちの状態に戻ってくると思います。他に使う予定が無ければコマンドプロンプト自体も閉じてしまって大丈夫です。
おまけ
インストールが完了したら、ぜひ続けて、Ollmaを使った超軽量な自律型AIアシスタント『舎弟(Shatei)』をインストールしてみてください。
Radeon RX580しか挿さっていない第四世代Core i5でも、 完全にローカルでAIに作業をさせながら、ゲームや動画編集・ビデオ会議までサクサク動く極めつけの軽さです。
ローカルでAIアシスタントを動かしたいと考えておられるなら、お試しあれ!
そしてOllamaの公式ウェブサイトはこちらになります。
こちらのページには、実は一発でインストールできるコマンドが書いてあります。
このコマンドを実行すれば、インストーラーが起動し確かに簡単にインストールが可能です。
…が、ちょっと面倒な(扱いづらい)場所にインストールされますので、特に開発などで頻繁に使いたい場合は、 このコマンドに頼らず、今回の方法でインストールした方が良いと思います。
(2026/04/03)
