Instalación y configuración de Ollama - docker article
Tutoriales prácticos sobre IAPublicado hace 5 meses Círculo de intercambio de inteligencia artificial 2.1K 00
breve
En esta sección se explica cómo completar el proceso Docker Ollama La instalación y configuración del
Docker es una tecnología de contenedores virtualizados que se basa en imágenes y puede iniciar varios contenedores en cuestión de segundos. Cada uno de estos contenedores es un entorno de ejecución completo que permite el aislamiento entre contenedores.
Ollama Descargar: https://ollama.com/download
Página oficial de Ollama: https://ollama.com
Repositorio oficial de código fuente de Ollama en GitHub: https://github.com/ollama/ollama/
Tutorial oficial de instalación de docker: https://hub.docker.com/r/ollama/ollama

I. Tirar del espejo de Ollama
El autor descargó docker en Windows de antemano 👉descarga de la instalación de docker sitio web oficial
Forma 1: Búsqueda y descarga de software Docker en la interfaz de visualización

Forma 2: El sitio web oficial recomienda utilizar directamente el siguiente comando para extraer la imagen de descarga, este proyecto sólo se puede ejecutar en la CPU.
# CPU 或者 Nvidia GPU
docker pull ollama/ollama
# AMD GPU
docker pull ollama/ollama:rocm
Nota: Si el lector desea utilizar una versión específica de la imagen que especifique el entorno de ejecución, puede utilizar el siguiente comando.
# CPU 或 Nvidia GPU下载ollama 0.3.0
docker pull ollama/ollama:0.3.0
# AMD GPU下载ollama 0.3.0
docker pull ollama/ollama:0.3.0-rocm
II. Ejecutar la imagen ollama
Forma 1: Docker ejecuta la imagen en una interfaz visual
- Una vez finalizada la descarga, se puede encontrar en la sección
Images
ha dado en el clavoOllama
Espejo, clicrun
Antes de ejecutarlo, seleccione un número de puerto (por ejemplo, 8089) en la ventana emergente de ajustes opcionales.

- existe
Containers
Busque la imagen en elOLLM
Acceso a la interfaz Ollama

- Compruebe que la instalación se ha completado, en la pantalla
Exec
Entra en:
ollama -h
La salida es la siguiente: eso significa que la instalación se ha realizado correctamente 🎉
Large language model runner
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
Flags:
-h, --help help for ollama
-v, --version Show version information

- Terminal de uso Ollama.
Los siguientes son comandos comunes utilizados por Ollama:
ollama serve #启动ollama
ollama create #从模型文件创建模型
ollama show #显示模型信息
ollama run #运行模型
ollama pull #从注册表中拉取模型
ollama push #将模型推送到注册表
ollama list #列出模型
ollama cp #复制模型
ollama rm #删除模型
ollama help #获取有关任何命令的帮助信息
library (ollama.com) Aquí está la biblioteca de modelos de Ollama, ¡busque el modelo que desee y láncelo directamente!
ollama run llama3
La velocidad de descarga depende de su ancho de banda y está listo para su uso ✌Recuerde utilizar el botón
control + D
Chat de salida
Forma 2: Inicio desde la línea de comandos
- Versión CPU:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...