难以想象,如果不是Scaling Law放缓,2024年AI领域会发生哪些惊人变化,但你可能又会感到庆幸,正是由于Scaling Law放缓,它给了这个行业的后来者们追赶的机会,也给了更多普通人搭乘这一轮技术革命的机会。
AI领域的变化激荡人心。一年前,AI社区普遍认为,与OpenAI的模型相比,大部分模型与它有半年或一年的差距,但大模型预训练逐渐没有秘密,它的入局门槛数量级降低。令国内外科技界深感震惊的是,以DeepSeek、Qwen为代表的开源大模型与顶尖闭源大模型GPT 4o之间的差距急剧缩小,并且这两款模型都来自中国的AI团队。同时,随着大模型预训练性能触及天花板,推理(inference)被视为模型能力持续提升的“第二增长曲线”。AI技术普惠化也进一步加速,人们只需通过接入标准化的API,就可以高效开发一个生成式AI应用,或者只是享受产品探索者们发布的有趣产品。
2024年,OneFlow发布了80篇优质文章,一如既往记录和探讨了诸多生成式AI与大模型领域的变化。年末,我们从中精选60多篇文章,并制作成一份900页的“年货”赠予每一位读者朋友,希望帮助你了解大模型的构建过程,行业现状与趋势。这份合集分为八大板块:概览、大模型基本原理、大模型训练没有秘密、大模型“第二增长曲线”:推理、AI芯片变局、生成式AI产品构建、生成式AI产业分析、AGI的挑战与未来。
感谢每一位作者公开分享他们的AI认知,并启发你我,这是我们持续编译这些深度内容的动力。我们希望在纷繁冗杂的信息中,找到那些值得阅读的内容,并传播给更多希望学习与探索AI的人。如果你想真正理解AI,最短的捷径是打开这份礼物并投身阅读。2025年,期待AI带给我们新的惊喜。
一、概览
- 2024年AI盘点:投资高歌猛进、基础设施重构、技术采用加速 /4
- 900个开源AI工具背后,我看到的趋势 /36
二、大模型基本原理
- 用初中数学理解LLM工作原理 /49
- 从头理解与编码LLM的自注意力机制 /78
- 揭示LLM采样过程 /112
- 50张图,直观理解混合专家(MoE)大模型 /125
- 从头构建视频生成扩散模型 /158
- 10个改变日常的大模型隐藏玩法 /174
三、大模型训练没有秘密
- LLaMA 3:大模型之战新序幕 /177
- 推算LLM训练的GPU内存需求 /190
- 揭示GPU上的批处理策略 /200
- GPU利用率背后的性能真相 /205
- LLM的浮点运算分配 /211
- 混合输入矩阵乘法的性能优化 /219
- 10倍加速LLM计算效率:消失的矩阵乘 /227
- 最大顶级数据集开源,可创建15万亿Token /240
- 70B大模型训练秘方①:数据集创建与评估 /244
- 从裸机到70B大模型②:基础设施设置与脚本 /270
- 70B大模型训练秘方③:1000次超参数优化实验的发现 /289
- ChatGPT负责人John Schulman:大模型的升级秘诀 /303
四、大模型“第二增长曲线”:推理
- 生成式AI的新战场:逻辑推断与推理计算 /318
- LLM逻辑推演策略选择:推理时计算 vs 训练时计算 /330
- 探索LLM推理的吞吐、时延及成本空间 /345
- 从零实现极速LLM推理 /363
- LLM推理入门指南①:文本生成的初始化与解码阶段 /402
- LLM推理入门指南②:深入解析KV缓存 /408
- LLM推理入门指南③:剖析模型性能 /429
- LLM推理加速指南 /442
- LLM Serving 有效吞吐量的最大化实现 /480
- 如何准确且可解释地评估大模型量化效果? /491
- LLM量化效果评估:50万次实测后的发现 /502
- Stable Diffusion XL 优化终极指南 /510
五、AI 芯片变局
- 2美元/小时出租H100:GPU泡沫破灭前夜 /585
- 终极GPU互联技术探索:消失的内存墙 /600
- Cerebras:挑战英伟达,全球最快AI推理芯片的“魔法” /614
- 比GPU快20倍?d-Matrix推理性价比分析 /624
- AI半导体技术、市场与未来 /630
- AI数据中心历史、技术与关键企业 /642
六、生成式AI产品构建
- 大模型产品化第一年:战术、运营与战略 /658
- OpenAI停服,国产大模型免费用!开发者Token自由实现了 /691
- LLM长上下文RAG能力实测:GPT-o1 vs Gemini /699
- 大模型成本效益对比:DeepSeek 2.5 VS Claude 3.5 Sonnet VS GPT-4o /712
- 10倍工程师的高效编码工具:Cursor x SiliconCloud /718
- 比肩Midjourney-v6,没有GPU也能跑可图Kolors /723
- AI搜索Perplexity的产品构建之道 /728
- NotebookLM爆火背后:AI原生产品的核心洞察与创新 /739
- OpenAI的组织形态、决策机制与产品构建 /750
- 拆解生成式AI平台:基础组件、功能及实现 /761
- 从通才到专家:AI系统向复合AI的演变 /786
七、生成式AI产业分析
- 开源AI背后的商业密码 /792
- AI市场的资本谜团与流向 /805
- 生成式AI产业经济学:价值分配与利润结构 /819
- 企业生成式AI最新调查:AI支出激增6倍,多模型部署盛行 /829
- 生成式AI推理技术、市场与未来 /842
- 生成式AI推理企业的市场机遇、竞争与未来 /855
- AI不是另一场“互联网泡沫” /864
- 红杉资本2025年AI三大展望 /878
八、AGI的挑战与未来
- AI Scaling的神话 /884
- 大模型的规模扩展是否可持续 /891
- GenAI的“关键一跃”:推理与知识 /904
- LLM逻辑推理的枷锁与破局策略 /924
- 再谈 LLM逻辑推理的三大谬误 /930
- 强化学习之父Richard Sutton:AGI研究的下一个范式 /937
- 强化学习之父Richard Sutton:通往AGI的另一种可能 /949
https://siliconflow.feishu.cn/file/OSZtbnfYQoa4nBxuQ7Kcwpjwnpf