Aprendizagem pessoal com IA
e orientação prática

Implementando o modelo de código aberto DeepSeek-R1 on-line com potência de GPU gratuita

Agradecimentos ao Tencent Cloud Cloud Studio e ao DeepSeek DeepSeek-R1.

Com o rápido desenvolvimento das tecnologias de IA e Big Model, cada vez mais desenvolvedores e pesquisadores querem experimentar e ajustar os Big Models por conta própria para entender melhor e aplicar essas tecnologias avançadas. No entanto, o alto custo da aritmética de GPU muitas vezes se torna um gargalo que impede todos de explorá-la. Felizmente, o Tencent Cloud Studio oferece recursos gratuitos de aritmética de GPU e, combinado com os grandes modelos DeepSeek-R1 introduzidos pelo DeepSeek, podemos implementar e executar facilmente esses modelos avançados na nuvem sem gastar um centavo.


Neste artigo, detalharemos como implantar e interagir com o DeepSeek-R1 Ollama usando os recursos gratuitos de GPU do Tencent Cloud Studio. Começaremos com o uso do Cloud Studio, introduziremos gradualmente a instalação e a configuração do Ollama e, por fim, mostraremos como implantar o DeepSeek-R1 e dialogar com ele.

1. estúdio de nuvem

1.1 Introdução ao Cloud Studio

O Tencent Cloud Cloud Studio é um ambiente de desenvolvimento integrado (IDE) baseado em nuvem que oferece uma grande variedade de ferramentas e recursos de desenvolvimento para ajudar os desenvolvedores a codificar, depurar e implantar com mais eficiência. Recentemente, o Cloud Studio lançou recursos de computação de GPU gratuitos, os usuários podem usar 10.000 minutos de servidores de GPU gratuitamente todos os meses, configurados com 16G de memória de vídeo, 32G de RAM e CPU de 8 núcleos. (Lembre-se de fechar a máquina após o uso, no próximo ajuste fino e depois abri-la, o ambiente é salvo automaticamente, 10.000 minutos por mês simplesmente não podem ser usados)

Implementando o modelo de código aberto DeepSeek-R1 on-line com potência de computação de GPU gratuita-1

 

1.2 Registro e login

Para usar o Cloud Studio, primeiro é necessário registrar uma conta na Tencent Cloud. Após a conclusão do registro, faça login no Cloud Studio e verá uma interface de usuário limpa que oferece uma variedade de modelos de desenvolvimento para escolher. Esses modelos abrangem uma ampla gama de cenários, desde o desenvolvimento básico em Python até implementações complexas de modelos grandes. Lembre-se de inserir a versão Pro.

1.3 Seleção do modelo Ollama

Como nosso objetivo é implantar DeepSeek-R1 modelo grande, então podemos simplesmente escolher Ollama Templates.Ollama é uma ferramenta para gerenciar e executar modelos grandes que simplifica o processo de download, instalação e execução de modelos. Depois de selecionar um modelo Ollama, o Cloud Studio configura automaticamente o ambiente Ollama para nós, eliminando a necessidade de instalação manual.

Implementando o modelo de código aberto DeepSeek-R1 on-line com potência de computação de GPU gratuita-1

 

Aguarde a inicialização, clique em Enter (o Ollama já está implantado no ambiente, basta executar o comando de instalação diretamente)

Implementando o modelo de código aberto DeepSeek-R1 on-line com potência de computação de GPU gratuita-1

 

2. Ollama

2.1 Introdução à Ollama

O Ollama é uma ferramenta de código aberto dedicada ao gerenciamento e à execução de vários modelos grandes. O site oficial do Ollama oferece uma grande variedade de recursos de modelos, e os usuários podem escolher o modelo certo de acordo com suas necessidades para fazer download e executar.

2.2 Parâmetros e seleção do modelo

No site oficial da Ollama, o número de parâmetros de cada modelo está marcado na parte inferior de cada modelo, como 7B, 13B, 70B etc. Aqui, "B" significa bilhão. O "B" aqui significa bilhão, indicando o número de parâmetros do modelo. Quanto maior o número de parâmetros, maior a complexidade e a capacidade do modelo, mas ele também consome mais recursos de computação.

Para os recursos gratuitos de GPU fornecidos pelo Tencent Cloud Studio (16G de memória de vídeo, 32G de RAM, CPU de 8 núcleos), podemos escolher modelos de 8B ou 13B para implantação. Se você tiver uma configuração de hardware superior, também poderá tentar modelos com parâmetros maiores para obter melhores resultados.

2.3 Instalação do Ollama

Depois de selecionar o modelo do Ollama no Cloud Studio, o sistema instalará automaticamente o Ollama para nós. Se você estiver usando o Ollama em outros ambientes, poderá instalá-lo com o seguinte comando:

curl -fsSL https://ollama.com/install.sh | sh

Após a conclusão da instalação, você pode verificar se o Ollama foi instalado com êxito usando o seguinte comando:

ollama --versão

A próxima etapa é a implantação do Ollama. DeepSeek-R1 ...

 

3. implementação gratuita do DeepSeek-R1

3.1 Introdução ao DeepSeek-R1

O DeepSeek-R1 é um modelo grande e de alto desempenho do DeepSeek que apresenta bom desempenho em várias tarefas de processamento de linguagem natural, especialmente nas áreas de geração de texto, sistemas de diálogo e perguntas e respostas. O número de parâmetros do DeepSeek-R1 varia de 8B a 70B, permitindo que os usuários escolham o modelo certo para implantação de acordo com sua configuração de hardware.

3.2 Download e implantação

A implementação do DeepSeek-R1 é muito simples, pois o Cloud Studio já instala o Ollama automaticamente. Só precisamos executar o seguinte comando:

ollama run deepseek-r1:8b

Implementando o modelo de código aberto DeepSeek-R1 on-line com potência de computação de GPU gratuita-1

 

Todos os modelos disponíveis para DeepSeek-R1 estão aqui: https://ollama.com/library/deepseek-r1 , recomendado! ollama run deepseek-r1:14b (Esse é o modelo Qwen destilado).

 

3.3 Execuções do modelo

Depois de esperar que o modelo termine o download, o Ollama iniciará automaticamente o DeepSeek-R1 e entrará no modo interativo. Nesse ponto, você pode inserir perguntas ou comandos diretamente no terminal para falar com o DeepSeek-R1.

 

4. comece a conversar com DeepSeek-R1

4.1 Diálogo básico

O diálogo com o DeepSeek-R1 é muito simples, você só precisa digitar sua pergunta ou instrução no terminal e o modelo gerará uma resposta imediatamente.

Implementando o modelo de código aberto DeepSeek-R1 on-line com potência de computação de GPU gratuita-1

4.2 Tarefas complexas

  • Por exemplo, a geração de código com o DeepSeek-R1

Implementando o modelo de código aberto DeepSeek-R1 on-line com potência de computação de GPU gratuita-1

 

4.3 Ajuste fino do modelo

Se não estiver satisfeito com o desempenho do DeepSeek-R1 ou se quiser que o modelo tenha um desempenho melhor em algumas tarefas específicas, você pode tentar fazer o ajuste fino do modelo. O processo de ajuste fino geralmente envolve a preparação de alguns conjuntos de dados específicos do domínio e o retreinamento do modelo usando esses conjuntos de dados.

5. resumo

Com os recursos gratuitos de GPU do Tencent Cloud Cloud Studio, combinados com o Ollama e o DeepSeek-R1, podemos implementar e executar facilmente grandes modelos na nuvem sem nos preocuparmos com altos custos de hardware. Não importa se você está tendo uma conversa simples ou trabalhando em uma tarefa complexa, o DeepSeek-R1 oferece um suporte poderoso. Esperamos que este artigo possa ajudá-lo a implantar o DeepSeek-R1 sem problemas e iniciar sua jornada de exploração de modelos grandes.

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Implementando o modelo de código aberto DeepSeek-R1 on-line com potência de GPU gratuita

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil