AIパーソナル・ラーニング
と実践的なガイダンス
サイバーナイフ用ドローイングミラー

Ollamaのインストールと設定 - Windowsシステム

簡単

このセクションでは、Windowsシステムでこれを行う方法について説明します。 オーラマ インストールと設定は以下のセクションに分かれています。

  • 公式サイトで直接ダウンロード
  • 環境変数の設定
  • ラン・オラマ
  • インストールが成功したことを確認する

 

I. 公式ウェブサイトにアクセスし、直接ダウンロードを完了する。

  1. 公式ホームページへ

    Ollama ダウンロード: https://ollama.com/download

    Ollama公式ホームページ:https://ollama.com


    Ollama公式GitHubソースコードリポジトリ: https://github.com/ollama/ollama/

    Ollamaのインストールと設定 - Windows-1

  2. ブラウザがOllamaSetup.exeファイルをダウンロードするのを待ちます。ダウンロードが完了したら、ファイルをダブルクリックします。 インストール ダウンロードが完了するまで待つだけだ。
    Ollamaのインストールと設定 - Windows-2
  3. インストールが完了すると、デフォルトでOllamaが起動していることが確認できます。下のナビゲーション・バーにOllamaのロゴがあるので、それを右クリックしてください。 オーラマをやめる オラマを出るか、見るか 過去ログ.
    Ollamaのインストールと設定 - Windows System-3

 

環境変数の設定

オーラマOllamaは他のソフトウェアと同様にワンクリックでコンピュータにインストールできますが、実際のニーズに応じてシステム環境変数を設定することをお勧めします。以下は、Ollamaの環境変数の設定方法です。

パラメトリック ラベリングと設定
OLLAMA_MODELS モデルファイルが保存されているディレクトリを示します。現在のユーザーディレクトリ務めるC:♪Users%username%.ollamamodelsWindowsシステム Cドライブに置くことはお勧めしません。 ディスクは他のディスク(例えば E: \ollamamodels)
OLLAMA_HOST はollamaサービスがリッスンするネットワークアドレスで、デフォルトは127.0.0.1 他のコンピュータ(LAN上の他のコンピュータなど)からOllamaへのアクセスを許可したい場合は推奨設定大丈夫 0.0.0.0
OLLAMA_PORT ollamaサービスがリッスンするデフォルトのポートを示す。11434 ポートの競合がある場合は、他のポートに設定を変更することができる(例えば、以下のように)。8080など)
OLLAMA_ORIGINS HTTPクライアントからのリクエストの送信元を示す。リストの区切りにはハーフカンマを使用する。 *
ollama_keep_alive ラージモデルがメモリにロードされた後の生存時間を示す。5mすなわち、5分(例えば、プレーンな数字300は300秒を意味し、0はリクエストに対する応答が処理されると同時にモデルがアンインストールされることを意味し、マイナスの数字はモデルが常に生きていることを意味する)に設定することが推奨される。 24h このモデルは24時間メモリに残るため、アクセス速度が向上する。
ollama_num_parallel 同時に処理されるリクエスト数を示す。1(すなわち、リクエストの単一同時シリアル処理) 実際のニーズに合わせて調整された推奨事項
ollama_max_queue リクエストキューの長さを示す。512キュー長を超えるリクエストは破棄されます。
OLLAMA_DEBUG はデバッグ・ログの出力を表します。1(トラブルシューティングのための詳細なログ情報を出力する)。
ollama_max_loaded_models 同時にメモリにロードされるモデルの最大数を示す。1(つまり、1つのモデルしかメモリーできない)

初心者の方には、以下のように設定することを強くお勧めします。 OLLAMA_MODELS をクリックしてモデルの保存場所を変更します。 デフォルトでは、OllamaのモデルはCドライブのユーザーディレクトリの .ollama/models フォルダはCドライブのスペースを占有しています。 このフォルダを別のパーティションに変更することで、ストレージをより適切に管理できるようになります。

ステップ1:システム環境変数を設定するエントリーポイントを探す。

方法1:スタート->設定->詳細システム設定->システムのプロパティ->環境変数。

方法2:このコンピュータ -> 右クリック -> プロパティ -> 詳細システム設定 -> 環境変数。

方法3:スタート->コントロールパネル->システムとセキュリティ->システム->システムの詳細設定->システムのプロパティ->環境変数。

方法4:Win+Rで「ファイル名を指定して実行」ウィンドウを開き、次のように入力します。 sysdm.cplこのオプションを使いたい場合は、「システムのプロパティ」を開き、「詳細設定」タブを選択し、「環境変数」をクリックします。

ステップ2:セットアップ OLLAMA_MODELS 環境変数(モデルの保存場所を変更する)

  1. で " 環境変数 " ウィンドウズ " システム変数(S) "エリア(ニーズによっては "ユーザー変数(U) "エリア)をクリックし、" 新しい(W)... 「ボタンをクリックする。
  2. で " 変数名(N) "入力ボックスに入力する: OLLAMA_MODELS (大文字と小文字に注意、すべて大文字を推奨)。
  3. で " 変動値(V) "入力ボックスに、設定したいモデルの保存パスを入力します。 例えば、Eドライブのモデルを ollamamodels フォルダに「変数値(V)」を入力することができます: E: \ollamamodels (ディスクレターとフォルダーパスは実際の状況に応じて変更してください)。
    • 注目してほしい: パスを入力してください。 すでに存在するフォルダ または 作成したいフォルダの親ディレクトリが存在する。 . Ollamaは、初回実行時に自動的に作成される場合があります。 モデル フォルダを作成することをお勧めする。 オラマ フォルダに移動し、パスが正しいことを確認する。
    •  Eドライブにモデルを保存するには ollamamodels フォルダの「変数値(V)」に入力できます: E: \ollamamodels
  4. クリック " 定義する 「ボタン、クローズ" 新しいシステム変数 "(または "New User Variable")ウィンドウを開きます。

注目してほしい: 設定方法がわからない場合 OLLAMA_MODELS 環境変数については、以下の例を参照されたい。

Ollamaのインストールと設定 - Windows System-4

(オプション)設定 OLLAMA_HOST 環境変数(リスニング・アドレスを変更する)。

Ollama サービスに LAN 上の他のデバイスからアクセスできるようにするには、次のように設定します。 OLLAMA_HOST 環境変数。

  1. また、" 環境変数 " ウィンドウズ " システム変数(S) "エリア(または "ユーザー変数(U) "エリア)で、" 新しい(W)... 「ボタンをクリックする。
  2. で " 変数名(N) "入力ボックスに入力する: OLLAMA_HOST
  3. で " 変動値(V) 「入力ボックスに 0.0.0.0:11434 (デフォルトは11434)。
    • 0.0.0.0 LANアクセスを許可するために、すべてのネットワーク・インタフェースをリッスンしていることを示す。
    • 11434 はOllamaのデフォルト・ポートである。
    •  0.0.0.0:11434
  4. クリック " 定義する 「ボタン、クローズ" 新しいシステム変数 "(または "New User Variable")ウィンドウを開きます。

ステップ 3: Ollama または PowerShell を再起動して、環境変数を有効にする。

環境変数が設定されたら、次の作業が必要だ。 Ollamaサービスの再起動 または コマンドプロンプト(CMD)またはPowerShellウィンドウを再起動します。 新しい環境変数を有効にする。

  • Ollamaサービスを再起動する。 もし オラマサーブ事前 Ctrl + C 停止して再実行 オラマサーブ.
  • コマンドプロンプト/PowerShellを再起動します。 開いているウィンドウをすべて閉じ、新しいウィンドウを開き直す。

ステップ4:環境変数が有効であることを確認する

  1. 再オープン コマンドプロンプト(CMD) または パワーシェル .
  2. 糺す OLLAMA_MODELS: 以下のコマンドを入力し、エンターキーを押す:
エコー %OLLAMA_MODELS%

出力:E: \ollamamodels (を設定する。 E: \ollamamodels)

Ollamaのインストールと設定 - Windowsシステム - 5

 

III.ランニング・オラマ

  • コマンドライン文の起動
オラマサーブ

Ollamaを起動すると、以下のエラーが発生します。 デフォルトの起動 属オーラマ サービスのデフォルトは http://127.0.0.1:11434 です。

Error: listen tcp 127.0.0.1:11434: bind: 通常、各ソケットアドレス(プロトコル/ネットワークアドレス/ポート)の使用は1回のみ許可される。

  • 解決策
  1. (ショートカットキー Win+X タスクマネージャーを開き アクティベート以下は、Ollamaを無効にする方法の例である。コースオッラマのミッションはその年の半ばに終了した。
    Ollamaのインストールと設定 - Windowsシステム - 6
  2. 再利用 オラマサーブオープン・オーラマ
  • 正常に起動したことを確認する:
  1. (ショートカットキー Win+Rインプット コマンドコマンドライン・ターミナルを開く。
  2. 輸入 netstat -aon|findstr 11434 ポート11434を占有するプロセスを表示する。
netstat -aon|findstr 11434

出力: tcp 127.0.0.1:11434 0.0.0.0:0 listening 17556

ポート11434がプロセス17556によって占有されていることを示す。

  1. プロセスが実行されているかどうかをチェックすると、Ollamaがスタートしていることがわかる。
タスクリスト|findstr "17556"

出力は以下の通り:ollama.exe 17556 コンソール 1 31,856 K

 

IV.インストールが成功したことを確認する

  • 端子入力:
ollama-h

インストールが成功したことを意味します🎉。

大規模言語モデルランナー
使用法: ollama [flags
ollama [フラグ]
ollama [命令]
利用可能なコマンド: serve start ollama
serve ollamaを起動する
create モデルファイルからモデルを作成する
show モデルの情報を表示する
run モデルの実行
pull レジストリからモデルをプルする
push モデルをレジストリにプッシュする
ps 実行中のモデルを一覧表示
ps 実行中のモデルをリストアップ
cp モデルをコピーする
rm モデルの削除
help コマンドに関するヘルプ
フラグ: -h, --help ollama 用ヘルプ
-h, --help ollamaのヘルプ
-v, --version バージョン情報を表示する
  • オッラマのターミナル使用。

図書館 ここにollamaのモデルライブラリがあります。お望みのモデルを検索して、すぐに起動してください!

オラマ・ラン・ラマ3

ダウンロード速度は帯域幅に依存し、すぐに使用できます。 コントロール+D 終了チャット

Ollamaのインストールと設定 - Windows System-7

 

第五に、ブートをキャンセルする方法

(2024-08-19現在) 現在、OllamaはWindows上でデフォルトで起動しますが、起動する必要がない場合は、以下の手順で解除することができます。

タスクマネージャーを開き アプリケーションを起動する探す ollama.exe 右クリック 物の使用を禁止する。 準備はできている。

Ollamaのインストールと設定 - Windows System - 8

シーディーエヌワン
無断転載を禁じます:チーフAIシェアリングサークル " Ollamaのインストールと設定 - Windowsシステム

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語