因为访问量过大以及遭受网络攻击,DeepSeek官网和APP这几天时好时坏,API也没法用。
此前我们已分享了本地部署DeepSeek-R1的方法(参见DeepSeek-R1本地部署),但普通用户限于硬件配置,连70b模型也很难跑起来,更别说671b的全量模型了。
幸好各大平台都接入了DeepSeek-R1,大家可以尝试作为平替。
一、英伟达NIM微服务
NVIDIA Build:集成多种AI模型并免费体验
网址:https://build.nvidia.com/deepseek-ai/deepseek-r1
英伟达部署了全量参数671B的 DeepSeek-R1 模型,网页版直接使用,点进去就能看到聊天窗口:
同时右侧也列出了代码页:
简单测试一下:
聊天框下方,还可以开启一些参数项(多数情况下可默认):
这些选项的大概意思和功能如下:
Temperature(温度):
数值越高,输出更随机,可能生成更具创造性的回答
Top P(核采样):
数值越高,保留更多概率质量的token,生成更具多样性
Frequency Penalty(词频惩罚):
数值越高,越多地惩罚高频词,减少啰嗦或重复
Presence Penalty(出现惩罚):
数值越高,越倾向于让模型尝试新词
Max Tokens(最大生成长度):
数值越高,回答潜在的篇幅越长
Stop(停止条件):
生成到某些特定字符或序列时,停止输出,防止生成过长或跑题
目前,由于白嫖的人越来越多(看下图的排队人数),NIM部分时段会出现卡顿:
难道英伟达也缺显卡?
NIM微服务还支持API调用DeepSeek-R1,但你需要用邮箱注册账号:
注册过程比较简单,只用邮箱验证:
注册好之后,可以点击聊天界面右上方的“Build with this NIM”生成API KEY,目前注册就送1000点数(互动1000次),白嫖党可以用完再换个新邮箱再注册。
NIM微服务平台也提供其他许多模型的使用:
二、微软Azure
网址:
https://ai.azure.com
微软Azure可以通过聊天操场,创建一个聊天机器人,并与模型交互。
Azure的注册麻烦许多,首先你要创建一个微软账户(如果已经有了就直接登录):
创建账户也需要邮箱验证:
完了要证明自己是人类,连续回答10道阴间问题:
到这里还不够,还得创建订阅:
验证手机号码以及银行账号等信息:
接下来选择“无任何技术支援”:
到这里就可以开始云部署了,在“模型目录”可以看到显眼的DeepSeek-R1模型:
点击之后,在下一个页面点击“部署”:
接下来要选择“创建新项目”:
然后全部默认,点击“下一个”:
接下来点击“创建”:
在这个页面下创建就开始了,需要等待一段时间:
完成后来到这个页面,你可以点击“部署”,进入下一步:
也可以查看上方面的“定价和条款”,可以看到是免费使用:
继续点击“部署”进入这个页面,可以点击“在操场中打开”:
然后就可以开始对话:
Azure也有类似NIM的参数调节可选:
作为平台,有许多模型可以部署:
对于已经部署的模型,今后通过左边菜单的“操场”或“模型+终结点”就可以快速访问:
三、亚马逊AWS
网址:
https://aws.amazon.com/cn/blogs/aws/deepseek-r1-models-now-available-on-aws
DeepSeek-R1同样在显眼位置,排面。
亚马逊AWS注册过程和微软Azure差不多麻烦,都要填写付款方式,还要电话验证+语音验证,这里就不再详细描述:
具体部署过程和微软Azure也是大同小异:
四、Cerebras
Cerebras:目前全球最快的AI推理、高性能计算平台
网址:https://cerebras.ai
和几家大型平台不同,Cerebras使用的是70b模型,宣称“比GPU方案快57倍”:
邮箱注册进入后,上方的下拉菜单可以选择DeepSeek-R1:
实测速度确实比较快,虽然没有宣称的夸张:
五、Groq
Groq:AI大模型推理加速解决方案提供商,高速免费大模型接口
网址:https://groq.com/groqcloud-makes-deepseek-r1-distill-llama-70b-available
邮箱注册进入后,也是可以选择模型:
速度也很快,但同样是70b,感觉比Cerebras的要弱智一点?
注意,登录状态下可以直接访问聊天界面:
https://console.groq.com/playground?model=deepseek-r1-distill-llama-70b
希望大家玩得开心,也希望DeepSeek早日恢复正常!