Installation et configuration d'Ollama - article de docker

bref

Cette section explique comment compléter l'application Docker Ollama L'installation et la configuration du

Docker est une technologie de conteneurs virtualisés qui repose sur des images et peut démarrer différents conteneurs en quelques secondes. Chacun de ces conteneurs est un environnement d'exécution complet qui permet l'isolation entre les conteneurs.

Ollama Télécharger : https://ollama.com/download

Page d'accueil officielle d'Ollama : https://ollama.com

Dépôt officiel du code source d'Ollama sur GitHub : https://github.com/ollama/ollama/

Tutoriel officiel d'installation de Docker : https://hub.docker.com/r/ollama/ollama

Ollama 安装与配置 - docker 篇

 

I. Tirer le miroir d'Ollama

L'auteur a préalablement téléchargé docker sur Windows 👉docker installation download official website

Voie 1 : recherche et téléchargement de logiciels Docker dans l'interface de visualisation.

Ollama 安装与配置 - docker 篇

Méthode 2 : Le site officiel recommande d'utiliser directement la commande suivante pour télécharger l'image, ce projet ne peut être exécuté que sur le CPU.

# CPU 或者 Nvidia GPU 
docker pull ollama/ollama

# AMD GPU
docker pull ollama/ollama:rocm

Note : Si le lecteur souhaite utiliser une version spécifique de l'image qui spécifie l'environnement d'exécution, la commande suivante peut être utilisée.

# CPU 或 Nvidia GPU下载ollama 0.3.0
docker pull ollama/ollama:0.3.0
# AMD GPU下载ollama 0.3.0
docker pull ollama/ollama:0.3.0-rocm

 

II. exécution de l'image ollama

Méthode 1 : Docker exécute l'image dans une interface visuelle

  • Une fois le téléchargement terminé, il se trouve dans la section Imagesa fait mouche Ollama Miroir, cliquez run Avant l'exécution, sélectionnez un numéro de port (par exemple 8089) dans la fenêtre des paramètres optionnels.
Ollama 安装与配置 - docker 篇
  • existent Containers Trouver l'image dans le OLLM Accès à l'interface Ollama
Ollama 安装与配置 - docker 篇
  • Vérifier que l'installation est terminée, dans l'onglet Exec Entrer à :
ollama -h

La sortie est la suivante : cela signifie que l'installation est réussie🎉.

Large language model runner
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve       Start ollama
create      Create a model from a Modelfile
show        Show information for a model
run         Run a model
pull        Pull a model from a registry
push        Push a model to a registry
list        List models
ps          List running models
cp          Copy a model
rm          Remove a model
help        Help about any command
Flags:
-h, --help      help for ollama
-v, --version   Show version information
Ollama 安装与配置 - docker 篇
  • Utilisation du terminal Ollama.

Les commandes suivantes sont couramment utilisées par Ollama :

ollama serve         #启动ollama
ollama create        #从模型文件创建模型
ollama show          #显示模型信息
ollama run           #运行模型
ollama pull          #从注册表中拉取模型
ollama push          #将模型推送到注册表
ollama list          #列出模型
ollama cp            #复制模型
ollama rm            #删除模型
ollama help          #获取有关任何命令的帮助信息

library (ollama.com) Voici la bibliothèque de modèles d'Ollama, recherchez le modèle que vous voulez et lancez-le directement !

ollama run llama3

La vitesse de téléchargement dépend de votre bande passante et est prête à être utilisée. control + D Exit Chat

Méthode 2 : Démarrage en ligne de commande

  • Version de l'unité centrale :
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...