AIパーソナル・ラーニング
と実践的なガイダンス
アリが描いたカエル

Ollamaのインストールと設定 - dockerの記事

簡単

このセクションでは、Docker.comを完了する方法について説明します。 オーラマ のインストールと設定

Dockerはイメージに基づく仮想化コンテナ技術で、さまざまなコンテナを数秒で起動できる。これらのコンテナはそれぞれ、コンテナ間の分離を可能にする完全な実行環境である。

Ollama ダウンロード: https://ollama.com/download


Ollama公式ホームページ:https://ollama.com

Ollama公式GitHubソースコードリポジトリ: https://github.com/ollama/ollama/

公式ドッカー・インストール・チュートリアル:https://hub.docker.com/r/ollama/ollama

Ollamaのインストールと設定 - docker Part-1

 

I. オラマ鏡を引く

筆者はあらかじめWindows上でdockerをダウンロードしておいた。ドッカーインストールダウンロード公式サイト

方法1:可視化インターフェースでのDockerソフトウェアの検索とダウンロード

Ollamaのインストールと設定 - docker Part-2

方法2:公式サイトでは、以下のコマンドで直接ダウンロードイメージを取り込むことを推奨している。

# CPUまたはNvidia GPU
docker pull ollama/ollama

# AMD GPU
ドッカー プル ollama/ollama:rocm

注:読者が実行環境を指定した特定のバージョンのイメージを使用したい場合は、以下のコマンドを使用することができる。

# CPU または Nvidia GPU ollama 0.3.0 のダウンロード
docker pull ollama/ollama:0.3.0
# AMD GPU ダウンロード ollama 0.3.0
docker pull ollama/ollama:0.3.0-rocm

 

II. ollamaイメージの実行

方法1:Dockerはビジュアル・インターフェースでイメージを実行する。

  • ダウンロードが完了すると 画像正鵠を得る オーラマ ミラー、クリック 走る 実行する前に、オプション設定のポップアップでポート番号(例えば8089)を選択することに注意してください。

Ollamaのインストールと設定 - docker Part-3

  • ある 容器 で画像を探す。 オーエルエルエム Ollamaインターフェースへのアクセス

Ollamaのインストールと設定 - docker Part-4

  • で、インストールが完了したことを確認する。 エグゼクティブ で入る:
ollama-h

インストールが成功したことを意味します🎉。

大規模言語モデルランナー
使用法: ollama [flags
ollama [フラグ]
ollama [命令]
利用可能なコマンド: serve start ollama
serve ollamaを起動する
create モデルファイルからモデルを作成する
show モデルの情報を表示する
run モデルの実行
pull レジストリからモデルをプルする
push モデルをレジストリにプッシュする
ps 実行中のモデルを一覧表示
ps 実行中のモデルをリストアップ
cp モデルをコピーする
rm モデルの削除
help コマンドに関するヘルプ
フラグ: -h, --help ollama 用ヘルプ
-h, --help ollamaのヘルプ
-v, --version バージョン情報を表示する

Ollamaのインストールと設定 - docker Part-5

  • ターミナル・ユース・オラマ

以下はOllamaが使用する一般的なコマンドである:

ollama serve # start ollama
ollama create # モデルファイルからモデルを作成する
ollama show # モデル情報を表示します。
モデルを実行します。
ollama pull # レジストリからモデルをプルする
ollama push # モデルをレジストリにプッシュします。
ollama list # モデルの一覧を表示します。
ollama cp # モデルのコピー
ollama rm # モデルの削除
ollama help #任意のコマンドに関するヘルプ情報の取得

ライブラリ (ollama.com) ここにはOllamaのモデルライブラリがあります。お望みのモデルを検索して直接起動してください!

オラマ・ラン・ラマ3

ダウンロード速度は帯域幅に依存し、すぐに使用できます。 コントロール+D 終了チャット

方法2:コマンドライン起動

  • CPUバージョン:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
シーディーエヌワン
無断転載を禁じます:チーフAIシェアリングサークル " Ollamaのインストールと設定 - dockerの記事

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語