Ollama: despliegue nativo con un solo clic de grandes modelos lingüísticos de código abierto

Ollama Introducción general

ollama es un marco ligero para ejecutar modelos lingüísticos nativos, que permite a los usuarios construir y ejecutar fácilmente grandes modelos lingüísticos. Ofrece múltiples opciones de inicio rápido e instalación, soporta Docker, e incluye un rico conjunto de bibliotecas para que los usuarios elijan. Es fácil de usar, proporciona una API REST, y tiene una variedad de plugins y extensiones que se integran con la comunidad.

ollama es una herramienta de línea de comandos pura para ordenadores personales, recomendada para desplegar interfaces de chat locales, tales como: Open WebUI, Lobe Chat, NextChat.

Ollama:本地一键部署开源大语言模型

Modifique el directorio de instalación por defecto: https://github.com/ollama/ollama/issues/2859

 

Ollama:本地一键部署开源大语言模型

 

 

Lista de características de Ollama

Rápida puesta en marcha de grandes modelos lingüísticos
Compatible con macOS, Windows y Linux
Proporciona bibliotecas como ollama-python, ollama-js, etc.
Incluida Llama 2. MistralModelo preconstruido Gemma et al.
Admite instalaciones locales y en Docker
Proporcionar funciones de modelo personalizadas
Soporte para convertir modelos de GGUF y PyTorch
Proporcionar guía de funcionamiento CLI
Proporcionar compatibilidad con la API REST

 

Comandos ollama más utilizados

Modelo pull: ollama pull llama3.1

Modelo en ejecución: llama run llama3.1

Borrar modelo: llama rm llama3.1

Lista de todos los modelos disponibles: lista ollama

Dirección del servicio API de consulta: ollama serve (por defecto http://localhost:11434/)

 

 

Ayuda Ollama

Guías y scripts de instalación disponibles en el sitio web de ollama y en la página de GitHub
Instalación mediante la imagen Docker suministrada
Creación, extracción, eliminación y copia de modelos mediante operaciones CLI
Inicialización y ejecución de una compilación local
Ejecutar el modelo e interactuar con él

 

 

Algunos de los modelos compatibles con Ollama

 

ModeloParámetrosTallaDescargar
Llama 27B3,8 GBollama run llama2
Mistral7B4,1 GBollama run mistral
Delfín Phi2.7B1,6 GBollama run dolphin-phi
Phi-22.7B1,7 GBollama run phi
Chat neuronal7B4,1 GBollama run neural-chat
Starling7B4,1 GBollama run starling-lm
Código Llama7B3,8 GBollama run codellama
Llama 2 sin censura7B3,8 GBollama run llama2-uncensored
Llama 2 13B13B7,3 GBollama run llama2:13b
Llama 2 70B70B39 GBollama run llama2:70b
Orca Mini3B1,9 GBollama run orca-mini
Vicuña7B3,8 GBollama run vicuna
LLaVA7B4,5 GBollama run llava
Gemma2B1,4 GBollama run gemma:2b
Gemma7B4,8 GBollama run gemma:7b

 

 

Ollama Descargar

© declaración de copyright
AiPPT

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...