Installation et configuration d'Ollama - article de docker
bref
Cette section explique comment compléter l'application Docker Ollama L'installation et la configuration du
Docker est une technologie de conteneurs virtualisés qui repose sur des images et peut démarrer différents conteneurs en quelques secondes. Chacun de ces conteneurs est un environnement d'exécution complet qui permet l'isolation entre les conteneurs.
Ollama Télécharger : https://ollama.com/download
Page d'accueil officielle d'Ollama : https://ollama.com
Dépôt officiel du code source d'Ollama sur GitHub : https://github.com/ollama/ollama/
Tutoriel officiel d'installation de Docker : https://hub.docker.com/r/ollama/ollama

I. Tirer le miroir d'Ollama
L'auteur a préalablement téléchargé docker sur Windows 👉docker installation download official website
Voie 1 : recherche et téléchargement de logiciels Docker dans l'interface de visualisation.

Méthode 2 : Le site officiel recommande d'utiliser directement la commande suivante pour télécharger l'image, ce projet ne peut être exécuté que sur le CPU.
# CPU 或者 Nvidia GPU
docker pull ollama/ollama
# AMD GPU
docker pull ollama/ollama:rocm
Note : Si le lecteur souhaite utiliser une version spécifique de l'image qui spécifie l'environnement d'exécution, la commande suivante peut être utilisée.
# CPU 或 Nvidia GPU下载ollama 0.3.0
docker pull ollama/ollama:0.3.0
# AMD GPU下载ollama 0.3.0
docker pull ollama/ollama:0.3.0-rocm
II. exécution de l'image ollama
Méthode 1 : Docker exécute l'image dans une interface visuelle
- Une fois le téléchargement terminé, il se trouve dans la section
Images
a fait moucheOllama
Miroir, cliquezrun
Avant l'exécution, sélectionnez un numéro de port (par exemple 8089) dans la fenêtre des paramètres optionnels.

- existent
Containers
Trouver l'image dans leOLLM
Accès à l'interface Ollama

- Vérifier que l'installation est terminée, dans l'onglet
Exec
Entrer à :
ollama -h
La sortie est la suivante : cela signifie que l'installation est réussie🎉.
Large language model runner
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
Flags:
-h, --help help for ollama
-v, --version Show version information

- Utilisation du terminal Ollama.
Les commandes suivantes sont couramment utilisées par Ollama :
ollama serve #启动ollama
ollama create #从模型文件创建模型
ollama show #显示模型信息
ollama run #运行模型
ollama pull #从注册表中拉取模型
ollama push #将模型推送到注册表
ollama list #列出模型
ollama cp #复制模型
ollama rm #删除模型
ollama help #获取有关任何命令的帮助信息
library (ollama.com) Voici la bibliothèque de modèles d'Ollama, recherchez le modèle que vous voulez et lancez-le directement !
ollama run llama3
La vitesse de téléchargement dépend de votre bande passante et est prête à être utilisée.
control + D
Exit Chat
Méthode 2 : Démarrage en ligne de commande
- Version de l'unité centrale :
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
© déclaration de droits d'auteur
Article copyright Cercle de partage de l'IA Tous, prière de ne pas reproduire sans autorisation.
Articles connexes
Pas de commentaires...