大家好,我是《探秘大模型应用开发》的作者,本公众号的主理人。
相信很多开发者朋友和我一样,面对大模型技术的浪潮,既兴奋又有些焦虑。兴奋的是一个全新的、充满无限可能的开发者盛宴正在拉开序幕;焦虑的是,不同于成熟的前后端或移动开发,LLM应用开发似乎“缺乏标准化的技术栈和公认的最佳实践”,过去的经验不再是可靠的“指南针”,常常感到“举步维艰,不知从何学起”。
当初我刚接触这个领域时,也曾深陷学习的“迷雾森林”。网上的信息虽然多,但往往“鱼龙混杂,碎片化严重”。很多内容或是“浅尝辄止”,或是紧盯瞬息万变的工具细节,难以触及“根本原理”,让我“越学越乱,事倍功半”。更让我困惑的是,诸如“微调的真正价值与演进路径是什么?”“GPU为何如此关键?”“大模型应用的开发范式与传统有何本质区别?”这些“关键问题”,在碎片化的信息中很难找到“系统、透彻”的解答。
正是因为亲身经历了这种困惑,并且坚信唯有系统化、结构化的学习才能真正掌握新技术的精髓,我才下定决心,把我最初摸索、求证、沉淀的2万字学习笔记,结合后续持续的学习、实践以及与众多开发者的交流反馈,系统地整理和扩展,最终形成了这本书。
我写这本书,不是想做一本追逐工具热点的速成手册,而是希望它能成为一张相对“精准的藏宝图”。我努力尝试从以下几个方面构建它的价值:
-
构建体系,而非零散拾遗:我尝试从全局视角出发,梳理出一条相对清晰、符合技术演进直觉的学习脉 lạc。书中系统地介绍了大模型应用开发相关的背景、核心概念、开发流程和主流工具的使用方法。内容上,既包括了像基座大模型的训练过程、GPU基础知识这样的底层支撑,也深入到了文本处理、向量数据库、参数高效微调(如LoRA、QLoRA等)、模型压缩与优化、模型部署、提示工程(如思维链、Self-Ask等多种技巧)以及重要的编排与集成(如LangChain、LlamaIndex、Semantic Kernel)等核心技术环节。 -
深入本质,而非浮于表面:我特别着重于探讨“核心概念、底层逻辑和关键技术演进”。例如,在微调章节,我不仅介绍了操作,更希望能解释清楚微调的定义、历史演变、为何从BERT时代的“专才”思路演进到GPT时代的“通才”思路,以及参数高效微调出现的必然性。对于GPU,也希望能解释其定位、与CPU的区别、核心参数的意义以及选型建议。我希望读者在了解“是什么”和“怎么做”的同时,也能理解“为什么”。 -
直击痛点,而非浅尝辄止:针对开发者普遍关心的“关键问题”,比如大模型应用开发的总体流程与传统软件开发的差异,我尝试提供了自己的分析和解答。并且,在最后一章,我通过一个相对完整的RAG应用案例,结合真实代码(虽然是基于本地运行的简化版),带领读者一步步体验从环境准备到打包部署的全过程,希望能让大家对开发流程有更具体的体会。
这本书的内容,从目录可以看到,覆盖了从AI 2.0时代概览、基座大模型准备、GPU知识,到应用开发概览、文档处理、向量数据库、微调、推理优化、部署工具、提示工程、编排集成,最后到一个应用示例。我希望这个结构能帮助大家系统地建立起对大模型应用开发的认知框架。
无论你是希望拥抱AI浪潮的传统开发者,还是刚刚踏入AI领域的技术新人,或是需要为团队规划技术路线的管理者,我都真诚地希望这本书能为你提供一些实实在在的帮助,让你在学习的道路上少走一些弯路,“快速走出学习迷茫区”,“高效掌握核心知识与技能”。
写书的过程,也是我个人学习和思考的再深化、再系统化的过程。我希望能将这份探索的成果分享给大家。
为了更好和读者交流,在读者建议下,在原有微信社群基础上,我新建了知识星球VIP社群,提供免费细致的咨询服务,帮你扫清障碍,星球内也特邀领域大咖为你在转型之路答疑解惑,项目和工作机会介绍,更有定期的赠书活动可以参与,欢迎加入(对于购买本书的读者可以底价(星球限制)入驻),与我一道共建社群。

购买本书的读者私信获取优惠券链接
(文:AI工程化)