簡単
このセクションでは、Docker.comを完了する方法について説明します。 オーラマ のインストールと設定
Dockerはイメージに基づく仮想化コンテナ技術で、さまざまなコンテナを数秒で起動できる。これらのコンテナはそれぞれ、コンテナ間の分離を可能にする完全な実行環境である。
Ollama ダウンロード: https://ollama.com/download
Ollama公式ホームページ:https://ollama.com
Ollama公式GitHubソースコードリポジトリ: https://github.com/ollama/ollama/
公式ドッカー・インストール・チュートリアル:https://hub.docker.com/r/ollama/ollama
I. オラマ鏡を引く
筆者はあらかじめWindows上でdockerをダウンロードしておいた。ドッカーインストールダウンロード公式サイト
方法1:可視化インターフェースでのDockerソフトウェアの検索とダウンロード
方法2:公式サイトでは、以下のコマンドで直接ダウンロードイメージを取り込むことを推奨している。
# CPUまたはNvidia GPU
docker pull ollama/ollama
# AMD GPU
ドッカー プル ollama/ollama:rocm
注:読者が実行環境を指定した特定のバージョンのイメージを使用したい場合は、以下のコマンドを使用することができる。
# CPU または Nvidia GPU ollama 0.3.0 のダウンロード
docker pull ollama/ollama:0.3.0
# AMD GPU ダウンロード ollama 0.3.0
docker pull ollama/ollama:0.3.0-rocm
II. ollamaイメージの実行
方法1:Dockerはビジュアル・インターフェースでイメージを実行する。
- ダウンロードが完了すると
画像
正鵠を得るオーラマ
ミラー、クリック走る
実行する前に、オプション設定のポップアップでポート番号(例えば8089)を選択することに注意してください。
- ある
容器
で画像を探す。オーエルエルエム
Ollamaインターフェースへのアクセス
- で、インストールが完了したことを確認する。
エグゼクティブ
で入る:
ollama-h
インストールが成功したことを意味します🎉。
大規模言語モデルランナー
使用法: ollama [flags
ollama [フラグ]
ollama [命令]
利用可能なコマンド: serve start ollama
serve ollamaを起動する
create モデルファイルからモデルを作成する
show モデルの情報を表示する
run モデルの実行
pull レジストリからモデルをプルする
push モデルをレジストリにプッシュする
ps 実行中のモデルを一覧表示
ps 実行中のモデルをリストアップ
cp モデルをコピーする
rm モデルの削除
help コマンドに関するヘルプ
フラグ: -h, --help ollama 用ヘルプ
-h, --help ollamaのヘルプ
-v, --version バージョン情報を表示する
- ターミナル・ユース・オラマ
以下はOllamaが使用する一般的なコマンドである:
ollama serve # start ollama
ollama create # モデルファイルからモデルを作成する
ollama show # モデル情報を表示します。
モデルを実行します。
ollama pull # レジストリからモデルをプルする
ollama push # モデルをレジストリにプッシュします。
ollama list # モデルの一覧を表示します。
ollama cp # モデルのコピー
ollama rm # モデルの削除
ollama help #任意のコマンドに関するヘルプ情報の取得
ライブラリ (ollama.com) ここにはOllamaのモデルライブラリがあります。お望みのモデルを検索して直接起動してください!
オラマ・ラン・ラマ3
ダウンロード速度は帯域幅に依存し、すぐに使用できます。
コントロール+D
終了チャット
方法2:コマンドライン起動
- CPUバージョン:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama