Aprendizagem pessoal com IA
e orientação prática

Ollama: Implementação nativa de modelos de linguagem grande de código aberto com um clique

Introdução geral de Ollama

O ollama é uma estrutura leve para a execução de modelos de idiomas nativos, permitindo que os usuários criem e executem facilmente modelos de idiomas grandes. Ele oferece várias opções de início rápido e instalação, é compatível com o Docker e inclui um rico conjunto de bibliotecas para os usuários escolherem. É fácil de usar, fornece uma API REST e tem uma variedade de plug-ins e extensões que se integram à comunidade.

O ollama é uma ferramenta de linha de comando pura para computadores pessoais, recomendada para a implantação de interfaces de bate-papo locais, como: Open WebUI, Lobe Chat, NextChat.


 

Modifique o diretório de instalação padrão: https://github.com/ollama/ollama/issues/2859

 

Ollama_Native Implementação com um clique de modelos de idiomas grandes de código aberto-1

 

 

Lista de recursos do Ollama

Como colocar modelos de idiomas grandes em funcionamento rapidamente
Suporte a sistemas macOS, Windows e Linux
Fornece bibliotecas como ollama-python, ollama-js, etc.
Incluindo o Llama 2. MistralModelo pré-construído de Gemma et al.
Oferece suporte a instalações locais e do Docker
Fornecer funcionalidade de modelo personalizado
Suporte para conversão de modelos do GGUF e do PyTorch
Fornecer um guia de operação da CLI
Fornecer suporte à API REST

 

Comandos de ollama comumente usados

Modelo pull: ollama pull llama3.1

Modelo em execução: llama run llama3.1

Excluir modelo: llama rm llama3.1

Lista de todos os modelos disponíveis: lista de ollama

Consultar o endereço do serviço da API: ollama serve (padrão: http://localhost:11434/)

 

 

Ajuda da Ollama

Scripts e guias de instalação disponíveis no site da ollama e na página do GitHub
Instalação usando a imagem do Docker fornecida
Criação, extração, remoção e cópia de modelos por meio de operações de CLI
Inicialização e execução de uma compilação local
Executar o modelo e interagir com ele

 

 

Alguns dos modelos suportados pela Ollama

 

Modelo Parâmetros Tamanho Baixar
Lhama 2 7B 3,8 GB ollama run llama2
Mistral 7B 4,1 GB ollama run mistral
Dolphin Phi 2.7B 1,6 GB ollama run dolphin-phi
Phi-2 2.7B 1,7 GB ollama run phi
Bate-papo neural 7B 4,1 GB ollama executar o neural-chat
Starling 7B 4,1 GB ollama run starling-lm
Código Llama 7B 3,8 GB ollama run codellama
Llama 2 sem censura 7B 3,8 GB ollama run llama2-uncensored
Lhama 2 13B 13B 7,3 GB ollama run llama2:13b
Llama 2 70B 70B 39 GB ollama run llama2:70b
Orca Mini 3B 1,9 GB ollama run orca-mini
Vicunha 7B 3,8 GB ollama run vicuna
LLaVA 7B 4,5 GB ollama run llava
Gemma 2B 1,4 GB ollama run gemma:2b
Gemma 7B 4,8 GB ollama run gemma:7b

 

 

Download do Ollama

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Ollama: Implementação nativa de modelos de linguagem grande de código aberto com um clique

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil