breve
Esta seção ensina como concluir o Ollama instalação e configuração do Ollama, bem como atualização do Ollama, instalação de versões específicas, visualização de registros e desinstalação.
I. Instalação rápida
Ollama Download: https://ollama.com/download
Página inicial oficial da Ollama: https://ollama.com
Repositório oficial de código-fonte do GitHub da Ollama: https://github.com/ollama/ollama/
O site oficial oferece uma instalação rápida por linha de comando.
curl -fsSL https://ollama.com/install.sh | sh
Esse comando fará o download automático da versão mais recente do Ollama e concluirá a instalação. Os comandos a seguir são comuns e usados pelo Ollama:
ollama serve #启动ollama
ollama create #从模型文件创建模型
ollama show #显示模型信息
ollama run #运行模型
ollama pull #从注册表中拉取模型
ollama push #将模型推送到注册表
ollama list #列出模型
ollama cp #复制模型
ollama rm #删除模型
ollama help #获取有关任何命令的帮助信息
- Verifique se a instalação está concluída, na seção
Exec
Entre em:
ollama -h
O resultado é o seguinte: isso significa que a instalação foi bem-sucedida🎉.
- Ativação e uso do Ollama
Primeiro, abra o Ollama no terminal e pendure-o em segundo plano
ollama serve
biblioteca (ollama.com)Aqui está a biblioteca de modelos da Ollama, procure o modelo que você deseja, abra um novo terminal e comece!
ollama run llama3
A velocidade de download depende de sua largura de banda e está pronta para ser usada ✌Lembre-se de usar o control + D
Sair do bate-papo
II. instalação manual
Observação: Se uma versão mais antiga do ollama tiver sido instalada anteriormente, você precisará fazer uma desinstalação manual.sudo rm -rf /usr/lib/ollama
Mais requisitos 👉Referênciassite oficial
2.1 Faça o download e extraia o pacote de instalação correspondente ao seu sistema operacional.
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
GPU AMDDownload:
curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz
sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgz
ARM 64Download:
curl -L https://ollama.com/download/ollama-linux-arm64.tgz -o ollama-linux-arm64.tgz
sudo tar -C /usr -xzf ollama-linux-arm64.tgz
2.2 Inicie o Ollama e verifique
Digite o seguinte comando para iniciar o Ollama:
ollama serve
Verifique se o ollama está sendo executado com êxito abrindo outro terminal e digitando o seguinte comando
ollama -v
2.3 Adição do Ollama como um serviço de autoinicialização (recomendado)
Primeiro, crie usuários e grupos para o Ollama:
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)
Então, nessa posição:/etc/systemd/system/ollama.service
Criação de um arquivo de serviço
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
[Install]
WantedBy=default.target
Por fim, inicie o serviço:
sudo systemctl daemon-reload
sudo systemctl enable ollama
III. atualizações
Execute novamente a instrução de instalação anterior para atualizar o Ollama:
curl -fsSL https://ollama.com/install.sh | sh
Ou baixe novamente o pacote Ollama mais recente:
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
IV. instalação de versões específicas
configurar OLLAMA_VERSION
Fields, você pode instalar a versão correspondente
curl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.5.7 sh
V. Visualização do registro
Veja os registros do Ollama em execução como um serviço de inicialização:
journalctl -e -u ollama
VI Desinstalação
- Excluir o serviço Ollama:
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service
- Remova os binários do Ollama do diretório bin:
/usr/local/bin
,/usr/bin
,/bin
sudo rm $(which ollama)
- Exclua os modelos baixados e os usuários e grupos de serviços da Ollama:
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama
- Excluir arquivos de biblioteca baixados
sudo rm -rf /usr/local/lib/ollama