AI个人学习
和实操指南

智谱支持128K上下文/4K输出长度大模型GLM-4-Flash全量免费开放!

自08月27日起,智谱将 GLM-4-Flash API 免费向公众开放。跑了3天的英译中测试,GLM-4-Flash对比硅基流动提供的GLM-4-9b、和 OpenRouter:集成多LLMs的统一接口,免费大模型接口 里提供的众多免费模型API相比,从效果和速率上也毫不逊色。

 

GLM-4-9b之前发布了免费API,在 SILICONFLOW(硅基流动):加速AGI普惠人类,集成免费大模型接口 ,同样都是免费API,GLM-4-Flash和GLM-4-9b在模型规模、参数数量、应用场景等方面存在一定差异,同样都是小模型,同样都提供免费服务,我们该如何选择?

可以说GLM-4-Flash 模型在“速度”和“性能”两方面都具有较大优势。

为提升模型的推理速度,GLM-4-Flash采用了自适应权重量化、多种并行处理技术、批处理策略以及投机性采样等多项优化措施。依据第三方模型速度测试结果,GLM-4-Flash 的推理速度在一周的测试周期内稳定在72.14 token/s 附近,显著优于其他模型。

 

智谱128K上下文模型全量免费开放!-1

 

在性能上,GLM-4-Flash在模型预训练阶段,使用了多达 10T 的高质量多语言数据,使得模型具备多轮对话、网页搜索、工具调用以及长文本推理(支持最大128K的上下文长度,输出4K长度)等功能,支持包括汉语、英语、日语、韩语、德语在内的26种语言。
在完全免费开放 GLM-4-Flash API 的基础之上,为了支持广大用户更好地将模型适用到特定应用场景,我们同步提供了模型微调功能,以满足不同用户的需求。欢迎使用!

AI轻松学

普通人的AI入门指南

帮助你以低成本、零基础学会如何利用AI工具。AI就像办公软件一样,是每个人的必备技能。 掌握AI会让你在求职中占据优势,在未来的工作和学习中事半功倍。

查看详情>
未经允许不得转载:首席AI分享圈 » 智谱支持128K上下文/4K输出长度大模型GLM-4-Flash全量免费开放!
分享到

首席AI分享圈

首席AI分享圈专注于人工智能学习,提供全面的AI学习内容、AI工具和实操指导。我们的目标是通过高质量的内容和实践经验分享,帮助用户掌握AI技术,一起挖掘AI的无限潜能。无论您是AI初学者还是资深专家,这里都是您获取知识、提升技能、实现创新的理想之地。

联系我们