AI个人学习
和实操指南

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型

本文于 2025-01-24 04:13 更新,部分内容具有时效性,如有失效,请留言

感谢腾讯云Cloud Studio,感谢深度求索DeepSeek-R1

在人工智能和大模型技术飞速发展的今天,越来越多的开发者和研究者希望能够亲自体验和微调大模型,以便更好地理解和应用这些先进的技术。然而,高昂的GPU算力成本往往成为了阻碍大家探索的瓶颈。幸运的是,腾讯云Cloud Studio提供了免费的GPU算力资源,结合深度求索(DeepSeek)推出的DeepSeek-R1大模型,我们可以轻松地在云端部署和运行这些强大的模型,而无需花费一分钱。


本文将详细介绍如何利用腾讯云 Cloud Studio 的免费GPU资源,部署DeepSeek-R1大模型,并与之进行交互。我们将从 Cloud Studio 的使用开始,逐步介绍Ollama的安装与配置,展示如何部署 DeepSeek-R1 并与它进行对话,最后你会得到一套完全且免费的 DeepSeek-R1 + Roo Code 免费编程组合方案。

1. Cloud Studio

1.1 Cloud Studio简介

腾讯云 Cloud Studio 是一个基于云的集成开发环境(IDE),它提供了丰富的开发工具和资源,帮助开发者更高效地进行代码编写、调试和部署。最近,Cloud Studio 推出了免费的GPU算力资源,用户每个月可以免费使用10000分钟的GPU服务器,配置为16G显存、32G内存和8核CPU。这对于需要高性能计算资源的开发者来说,无疑是一个巨大的福音。(用完后记得点关闭机器,下次微调再开启就可以了,环境自动保存,每个月10000分钟根本用不完)

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

1.2 注册与登录

要使用 Cloud Studio ,首先需要注册一个腾讯云账号。注册完成后,登录 Cloud Studio ,你会看到一个简洁的用户界面,提供了多种开发模板供选择。这些模板涵盖了从基础的Python开发到复杂的大模型部署等多种场景。记住要进入专业版。

1.3 选择Ollama模板

由于我们的目标是部署 DeepSeek-R1 大模型,因此我们可以直接选择 Ollama 模板。Ollama 是一个用于管理和运行大模型的工具,它简化了模型的下载、安装和运行过程。选择Ollama模板后,Cloud Studio 会自动为我们配置好 Ollama 环境,省去了手动安装的麻烦。

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

等待开机,点击进入(环境中已经部署好 Ollama,只需要直接运行安装命令即可)

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

2. Ollama

2.1 Ollama简介

Ollama是一个开源的工具,专门用于管理和运行各种大模型。它支持多种模型格式,并且可以自动处理模型的依赖关系,使得模型的部署和运行变得非常简单。Ollama的官方网站提供了丰富的模型资源,用户可以根据自己的需求选择合适的模型进行下载和运行。

2.2 模型参数与选择

在Ollama的官网上,每个模型的下方都会标注模型的参数量,例如7B、13B、70B等。这里的“B”代表Billion(十亿),表示模型的参数量。参数量越大,模型的复杂度和能力通常也越强,但同时也会消耗更多的计算资源。

对于腾讯云Cloud Studio提供的免费GPU资源(16G显存、32G内存、8核CPU),我们可以选择8B或13B的模型进行部署。如果你有更高的硬件配置,也可以尝试更大参数的模型,以获得更好的效果。

2.3 安装Ollama

在 Cloud Studio 中选择 Ollama 模板后,系统会自动为我们安装Ollama。如果你在其他环境中使用Ollama,可以通过以下命令进行安装:

curl -fsSL https://ollama.com/install.sh | sh

安装完成后,你可以通过以下命令验证Ollama是否安装成功:

ollama --version

接下来就是 Ollama 部署 DeepSeek-R1 ...

 

3. DeepSeek-R1免费部署

3.1 DeepSeek-R1简介

DeepSeek-R1 是深度求索(DeepSeek)推出的一款高性能大模型,它在多项自然语言处理任务中表现出色,尤其是在文本生成、对话系统和知识问答等领域。DeepSeek-R1 的参数量从8B到70B不等,用户可以根据自己的硬件配置选择合适的模型进行部署。

3.2 下载与部署

因为 Cloud Studio 已经自动安装了 Ollama ,所以部署 DeepSeek-R1 非常简单。我们只需要运行以下命令即可:

ollama run deepseek-r1:8b

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

DeepSeek-R1所有可用模型在这里:https://ollama.com/library/deepseek-r1 ,推荐 ollama run deepseek-r1:14b (这是蒸馏过的Qwen模型)

 

3.3 模型运行

等待模型下载完成后,Ollama会自动启动DeepSeek-R1,并进入交互模式。此时,你可以直接在终端中输入问题或指令,与DeepSeek-R1进行对话。

 

4. 开始和DeepSeek-R1聊天

4.1 基本对话

与DeepSeek-R1的对话非常简单,你只需要在终端中输入你的问题或指令,模型会立即生成回复。

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

4.2 复杂任务

  • 比如用DeepSeek-R1生成代码

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

4.3 模型微调

如果你对DeepSeek-R1的表现不满意,或者希望模型在某些特定任务上表现更好,你可以尝试对模型进行微调。微调的过程通常需要准备一些特定领域的数据集,并使用这些数据集对模型进行再训练。Ollama提供了简单的接口,帮助用户进行模型微调。

 

4.4 在AI编程工具中使用

在终端使用当然不是主要场景,我们要将服务用于其他聊天工具或者AI编程工具中才实用。而 Cloud Studio 不提供外部访问地址。此时使用 ngrok/Cpolar 即可很好的解决问题。

只提供思路,不详细讲解:第一步查询内网 Ollama 端口,第二步安装 ngrok ,第三步映射 Ollama 端口到 ngrok ,启动服务后你得到如下地址:

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

验证外网是否能正常使用:

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

Roo Code(Roo Cline) 客户端中配置API:(Roo Code 是一款优秀的AI编程插件)

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

保存后测试对话:

使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型-1

 

5. 总结

通过腾讯云Cloud Studio的免费GPU资源,结合Ollama和DeepSeek-R1,我们可以轻松地在云端部署和运行大模型,而无需担心高昂的硬件成本。无论是进行简单的对话,还是处理复杂的任务,DeepSeek-R1都能提供强大的支持。希望本文能够帮助你顺利部署DeepSeek-R1,并开启你的大模型探索之旅。

未经允许不得转载:首席AI分享圈 » 使用免费 GPU 算力在线部署 DeepSeek-R1 开源模型

首席AI分享圈

首席AI分享圈专注于人工智能学习,提供全面的AI学习内容、AI工具和实操指导。我们的目标是通过高质量的内容和实践经验分享,帮助用户掌握AI技术,一起挖掘AI的无限潜能。无论您是AI初学者还是资深专家,这里都是您获取知识、提升技能、实现创新的理想之地。

联系我们
zh_CN简体中文