「0天复刻Manus」的背后,这名95后技术人坚信:“通用Agent一定存在,Agent也有Scaling Law”| 万有引力

图片

嘉宾 | 范文栋
对话 | 唐小引
责编 | 郑丽媛
出品 | CSDN(ID:CSDNnews)

今年 3 月,Manus 的横空出世,引爆新一轮的 AI Agent 热潮

人们惊讶地发现,原本复杂繁琐的任务流,如今一个 Agent 就能自动规划、调用工具、执行操作,甚至还能主动 Debug 和自我修复——生成式 AI 从“语言理解”向“任务执行”演化,Agent 不再是只能聊天的大语言模型,而是可以“动手做事”的数字助手

然而,在这场技术热潮中,质疑与分歧也接踵而至:“Agent 的 Scaling Law 是否存在”、“通用 Agent 是否真的可行这些问题引发了广泛的争议与探讨。一方面,部分研究者坚信,随着模型技术的进步,Agent 将能实现从特定任务向通用能力的跨越;而另方面,也有声音指出所谓的“通用 Agent”,或许是一套被过度期许的工程幻象。

为了解答这些技术争议,由 CSDN 主办的《万有引力》栏目在全球机器学习技术大会的现场特别邀请到了 CAMEL AI 核心成员,CAMEL、OWL 开源项目核心开发者和维护者范文栋。作为一个 96 年出生、从开源社区一路走到前沿 Agent 工程一线的年轻技术人,范文栋参与了从 CAMELOWL 多个项目,也亲历了这一波 Agent 技术从探索到爆红的全过程。那么接下来,就让我们在 CSDN &《新程序员》执行总编、《万有引力》主理人唐小引的主持下,看看范文栋眼中的 Agent 未来如何发展

AI 产品爆发,但你的痛点解决了吗?8.15-16 北京威斯汀·全球产品经理大 会 PM-Summit,3000+ AI 产品人社群已就位。
直面 AI 落地难题、拆解头部案例、对接精准资源!

扫码登记信息,添加小助手进群,抢占 AI 产品下一波红利:

进群后,您将有机会得到:
· 最新、最值得关注的 AI 产品资讯及大咖洞见
· 独家视频及文章解读 AGI 时代的产品方法论及实战经验
· 不定期赠送 AI 产品干货资料和秘籍


以下为对话内容(为方便阅读,进行了适当的文本优化)


“0 天复刻 Manus”的 OWL,十天斩获 1w+ Star

唐小引:我们今天将围绕「如何构建 AI Agent」以及「开发 Agent 背后的技术故事与人物」展开分享。文栋,先和大家打个招呼吧,也介绍一下你最近负责的开源项目?

范文栋:大家好,我是范文栋,CAMEL-AI 的核心贡献者,也是 Eigent AI 的技术负责人(Tech Lead)。

相信大家都知道前阵子个叫 Manus 的项目很火我们 CAMEL 社区此前发布了一个名为 OWL 的开源项目,它在权威评测榜单 GAIA Benchmark 上曾位列第一,是最强的开源 Agent 之一。当时我们打出“0 天复刻”的口号,好像这个项目很快就做出来了,但其实有点标题党——之所以能如此快速发布 OWL,是因为我们过去已经做过相应工作才能快速迭代

其实CAMEL 做 Agent 已经两年了可能很多人都不知道CAMEL 框架是在 23 年 3 月推出的,也是世界上第一个多智能体框架,所以其实我们已经两年的积累。当 Manus 项目出来以后我们看到 CAMEL 框架中已有的模块能够非常快速地复现类似能力所以很快推出了 OWL 这个框架

唐小引:看到有小伙伴把文栋的项目名字发出来了,不过拼写上有点小误。我来大致梳理一下这个背景:前段时间,大家应该对通用 Agent 项目 Manus 有印象。Manus 是一个闭源项目,它的核心作者季逸超表示未来可能将 Manus 开源,但截至目前我们还没有看到正式发布的开源版本。

当时,Manus 的邀请码异常紧缺可谓一码难求。正是在这个背景下,我们看到了开源社区的力量包括文栋所在的 CAMEL AI 团队,以及 MetaGPT 团队,都在极短的时间内完成了对 Manus 的开源复现,并将项目发布到了 GitHub 上。其中,文栋团队推出的就是 OWL 项目。

范文栋:是的OWL 作为一个开源项目,在推出以后受到了大量社区开发者的关注与反馈我们也根据这些意见进行了多轮迭代和优化。当然OWL 在推出之初的整体成熟度确实不如 Manus毕竟是一个在短时间内完成的项目。

我们构建 OWL 的初衷也并不是要和 Manus 去比拼产品化能力而是希望能为开发者提供一个真正开源、可拓展的基础框架让大家基于 OWL 去做二次开发和构建例如结合自身业务需求构建更加深入的使用场景和应用。

唐小引:可以跟大家分享一下 OWL 项目开源之后的情况吗?我记得当时社区反响非常热烈你们在开源 OWL 之后应该特别忙可以讲讲你们收到的社区反馈段时间的心路历程吗?

范文栋:当时我们项目刚上线,仅十天时间就在 GitHub 上获得了一万个 Star吸引了大量开发者的关注。这个数字甚至都反超 CAMEL 了。要知道,作为第一个多智能体框架,CAMEL 积累了两年的 Star 数,在短短十天内被 OWL 超越,也说明了大家对这个方向的高度关注。

那段时间,很多人加入了我们的社区,反馈非常多,GitHub 上也出现了大量 Issue还跟团队的小伙伴开玩笑说,每天醒来都要多当五六个小时的客服,消息根本回不过来大家在刚开始使用 OWL 时,确实可能会遇到各种问题,比如与模型部署相关的操作,或者海外 API 使用不便等当时我们在几天内就关闭了 GitHub 上 200 多个 Issue,不过这还只是 GitHub 上的,微信群里的反馈更多,保守估计有上千甚至上万个。

唐小引:在 GitHub 上,有没有哪些让你印象深刻的反馈或者 PR 提交?

范文栋:OWL 项目刚上线的时候,它还是一个只能通过本地 IDE 运行的形态,并没有 Web App所以使用起来不是那么方便,尤其是对于刚开始接触 Agent 开发的小伙伴来说。随后我们团队开发了一个 Web App虽然初期版本还不够成熟,但得到了社区的积极反馈。例如有开发者提交了改进 UI/UX 的 PR,帮我们优化了整体交互体验。

现在的 Web App 虽然还有提升空间,但相比刚上线时已经有了很大进步。这也充分体现了开源社区的力量,大家都非常踊跃地提交 Issue贡献 PR,帮助项目不断完善。

唐小引:现在 OWL 的迭代工作,主要是你们团队在做还是已经可以依靠社区的力量,由更多开发者提交 PR,而你们主要负责代码审核和合并?

范文栋:对,没错。OWL 刚推出的时候,我们把一些 Open Issue 放在 GitHub 主页现在项目底部也仍然保留了一部分。当时社区响应非常快,我们有时一次性发布三五个 Issue十几分钟就会有开发者在下方留言“认领”提交相应的贡献。

前段时间我们的主要工作就是在社区中回复各种 Issue 和用户问题,同时一些希望新增的功能以 Issue 的形式加在 README 中。开发者认领之后,我们会主动联系他们提供一些支持,包括代码审查等。

唐小引:有没有哪些比较关键的迭代可以和大家分享?或者OWL 是否有类似 OpenManus 那样的 Roadmap后续方向一定的规划

范文栋:有的我们在 OWL 刚上线时就进行了整体重构。第一版 OWL 是基于 CAMEL 的 RolePlaying 模块开发的一个版本,叫 OWL RolePlaying。当时我们希望在 GAIA Benchmark 上取得好成绩,所以整体调教非常注重性能在实际使用用户会发现资源消耗为了确保任务顺利完成,中间会进行一些重复验证,导致 Token 消耗偏高。

所以后来我们进行了一些更平衡的设定和优化。如果大家想体验性能最强的版本,可以切换到 GAIA-58.18 这个分支;而 Main 分支并非性能最优版本,但胜在成本控制和稳定性,整体更加均衡。这是我们前段时间一个比较重要的更新。

另一个比较核心的是 OWL Agent 使用工具的更新。例如 Browser 工具,它允许 Agent 打开浏览器,执行自动化任务目前这一模块还在持续迭代中。此外,Terminal 工具也是非常重要的更新支持 Agent 调用终端,自主安装依赖库并执行代码。我们更新完 Terminal Tool Kit 后做了一个测试:这个 Agent 自行安装一个处理 PDFSlides 相关的库,然后再让 Agent 独立生成一个 PPT,它也很好地完成了任务。

关于 OWL  Terminal Tool Kit其实还有一个故事。很早以前,我们的 Founder 李国豪(CAMEL-AI.org区创始人)就在 GitHub 的 Roadmap 了这个 Tool Kit——那时甚至连模型的工具调用功能都还没完善,但他当时就判断 Terminal 工具会是一个非常强大的能力不过这个事情大家之前都没有意识到,直到后来 OWL 和 Manus 受到广泛关注以后,我们才发现这个工具原来真的那么强。


“为爱发电”走入开源社区,最终全职投身 Agent 研发

唐小引:接下来我们来聊聊“人”的故事。文栋是国豪推荐给我的我最开始就问:“文栋是哪年出生的?”因为我发现现在 AI 圈里很多核心开源项目的主创都非常年轻文栋是 1996 年出生,是非常典型的一位新生代代表。

所以文栋,可以请你跟大家分享一下你的成长经历吗比如你是如何走上 AI 这条技术路线的?以及了解到是远程工作和 CAMEL AI 团队现在的协作方式又是怎样的

范文栋:好的,我先介绍一下我是怎么一步步从接触 AI 走到现在的。

我本科读的是一个比较传统的工科专业,并非计算机相关。记得大二那年,正值 AlphaGo 刚刚推出我当时在看直播,看到最后 AlphaGo 战胜李世石那一刻给我带来了极大的震撼——原来 AI 可以做到这种程度,连人类顶尖智慧也能被挑战。从那起,我开始对 AI 产生浓厚兴趣。

研究生阶段,我转向了和算法相关的统计学,并选修了大量计算机相关课程,也开始从事 NLP 相关的研究。之后,我在爱尔兰中央统计局实习,主要负责文本分类当大语言模型横空出世时,又受到了二次震撼觉得技术太厉害了

在爱尔兰中央统计局工作一段时间后,因为疫情、气候等各种原因,后来我选择回国加入了巴斯夫中国数字化中心,担任 AI 工程师主要工作是销售、市场、生产、供应链等业务线开发 AI 解决方案。不过,在大企业内部,新技术的推进节奏通常较慢。

当 2023 年初生成式 AI 兴起时,我内心非常激动。当时我在团队中承担了一个利用生成式 AI 撰写市场宣传文案的项目让我这一方向产生了更深的兴趣。我还利用业余时间,用 GPT 的 API 复现了一个我曾经苦战七个月的文本分类项目——仅用半天时间就完成了,准确率还更高。

从那之后,便主动寻找一些与生成式 AI 相关、有技术挑战的项目。我一开始用的是 LangChain,因为公司中是用做开发。但后面逐渐意识到 LangChain 的一些局限性,例如抽象层次较多,修改起来也不太方便。

所以我就开始寻找一些有意思的开源项目,因为我觉得开源才是能快速迭代技术能力、学到很多东西的地方。机缘巧合我在小红书上看到了国豪。他说他当时也看到了我发的一篇吐槽 LangChain 的帖子,就主动私信我。他给我发了 CAMEL 的项目链接,我看到那个熟悉的骆驼 Logo 才想起来之前见过但没深入了解。和国豪联系之后,我开始仔细研究 CAMEL 的代码,发现这实在是一个非常酷的项目。

当时我刚接触 Agent对它的认知还停留在传统的生成式 AI 应用层面,比如用 LangChain 调用模型完成自然语言生成。但当时 CAMEL 已经实现了多智能体之间的协同可以用两个 Agent 来完成一个复杂任务。我觉得这个东西太酷了,于是开始以志愿者身份在业余时间参与 CAMEL 的开发。后来随着对项目的投入越来越深关系越来越紧密,我最终决定去年辞职,全职加入了 CAMEL AI 团队。

唐小引:也就是说你最开始是在开源社区中,作为一个对项目非常感兴趣的个人贡献者参与进来的?

范文栋:对,一开始就是单纯的“为爱发电”到现在,我的这份热爱还在。

唐小引:我能从你身上感受到技术人所具备的那种自我驱动精神——Just for fun,就像 Linux 之父 Linus Torvalds 提倡的那样这也是开源社区最有魅力的地方。现在 CAMEL AI 团队大概有多少人?团队的规模和大家的分布情况是怎样的?据我了解,国豪现在人在伦敦

范文栋:我们团队的规模其实还比较小,也很年轻,成立至今仅一年左右目前整个团队大约有 20 多人这其中包含了不少实习生和兼职,真正的全职成员只有五位。

核心团队的人员分布非常广,我们曾说自己是“日不落团队”有人在英国伦敦,有人在美国,还有人在澳大利亚,在印度和中国也都有一些小伙伴涵盖了全球很多主要时区因此,我们的协作方式基本上是远程线上为主。

我们的核心成员,大多是从社区中转化过来的开源贡献者,比如我自己。此外,我们也在与很多高校的博士生和研究人员展开合作希望通过这种方式接触到更多非常优秀、且对 Agent 感兴趣的伙伴一起去探索和推动这领域的进展。


探索“Agent Scaling Law 是否存在”的实践

唐小引:能和大家分享一下你在全球机器学习技术大会上的演讲内容吗?你的演讲主题是“从工具到自主化,构建更强大的 Agent 系统那么从“工具”走向“自主化”,这条路径的技术挑战和整体思路是怎样的?

范文栋:我这次的演讲主要围绕我们正在研究的一个方向——Agent Scaling Law我们都知道模型的 Scaling Law 对应的是模型的参数量、训练数据等。而在 Agent 系统中,我们提出一个类比性的假设:Agent 的数量是否可能也像模型参数那样,成为系统能力提升的关键因素?关于这一我们 CAMEL 在 Agent 里探索构建环境与模拟系统

唐小引:所以你们是已经发现 Agent 中确实存在类似于 Scaling Law 的现象了吗?

范文栋:还不能这么说。我们目前还处在探索阶段,不能断言 Agent Scaling Law 一定成立。但我们确实在实验中看到了多智能体能力比单智能体要强比如我们之前在 CAMEL 研究论文里也提过,在超过 70% 的任务场景中,采用两个 Agent 协作的 RolePlaying 框架,任务完成效果明显优于仅用一个 Agent 的

唐小引:那你们团队在探索 Agent Scaling Law 的实践过程中,有哪些关键性的发现或经验可以和大家分享?

范文栋:首先是刚才提到的 Agent 数量我们之前参与发布一个名为 OASIS 的项目,它是一个以大模型为基座的通用社会模拟平台,支持多达 100 万个 Agent 进行交互我们通过支持大规模 Agent 的模拟来开展社会模拟研究。例如,在 X 或 Reddit 等海外社交平台场景中,当部分 Agent 发表意见后,其他 Agent 会受到何种影响。

另外环境相关的内容以刚才提到的 OWL 项目为例,我们让 Agent 能够获取当前浏览器上的信息并执行操作。实际上,在这之前我们还有一个名为 CRAB 的项目,它是一个跨端项目,可在本地 PC 和手机上执行操作,这也是全球首个此类项目。当时我们还了一些 Benchmark 来评估多模态模型的能力。

还有一个我们近期比较专注的方向利用 Agent 生成合成数据。我们认为多智能体系统的构建基于单个智能体,单个智能体的核心在于模型本身,模型的底层支撑则是数据。因此我们希望从底层出发,通过提升数据质量来反哺多智能体系统。具体而言,我们可利用 Agent 生成高质量的合成数据,并在 Agent 系统中结合环境和验证器等提升整体数据生成质量。

唐小引:你刚才提到了当前 AI 圈非常关注的几个 Agent 关键命题其中一个是Agent 是否存在 Scaling Law我记得此前智谱在发布 AutoGLM 明确表示他们在构建 Agent 系统的过程中发现了 Scaling Law从你的观察来看,目前国内外在做 Agent 开发时,是否已经在这一问题上形成了共识,还是大家仍处于探索期?

范文栋:我个人认为,目前大家整体上还是处于探索阶段,还没有形成非常强的一致性共识。不同的团队、研究者可能会有不同的看法。

唐小引:那为什么智谱会明确提出 Agent 存在 Scaling Law

范文栋:可能每个人都有自己的看法。当然,我个人相信 Agent 是有 Scaling Law 

唐小引:你平时除了在 CAMEL AI 团队工作之外,会关注其他团队相关项目吗?有没有哪些和你们方向比较相似或完全不同的?

范文栋:我目前大多数时间还是主要投入在 CAMEL 项目的开发中,所以像智谱的 AutoGLM,我其实没有非常深入地了解。不过也会定期关注一些其他多智能体框架的进展

唐小引:如今 AI 圈内都在探索单智能体多智能体系统发展不少指出多智能体面临很多困难难以突破那么基于多智能体观察以及CAMEL AI 团队实践的情况什么可以分享的吗

范文栋:确实在多智能体系统的开发过程中有很多工程层面研究层面复杂问题可能涉及诸如成本控制等多个维度许多环节都需要进行深度优化。

技术角度来说,建一个多智能体系统不难,要做得好其实很难——几乎每个模块去做优化比如Agent 之间的协作机制、任务调度策略、工具调用流程及 Agent 本身的记忆系统想把这些方面优化到极致肯定要花很多功夫。

唐小引:你刚才提到,“要做得好其实很难”,这个难度主要体现在哪些方面?你们 CAMEL AI 团队在这方面的核心实践又是如何展开的?

范文栋:我打个比方比如在工具调用方面很多人最直观的做法是:将所有可能被 Agent 调用的工具,全部添加进 Tool List,然后转换为 OpenAI 的 Schema,交由大语言模型去完成工具调用。但实际上,从成本与效益的角度来看,这里有很多优化空间。比如,把所有工具“一股脑”地提供给 Agent 之前,可以先通过语义检索的方式来筛选工具。如果希望进一步优化效果,也可以对用于搜索的 Embedding 模型进行微调甚至可以对整个模型进行微调,让它变成一个特定工具调用场景下非常强的模型。

还比如在代码生成方面,如果我们希望 Agent 去写代码,其效果很大程度上取决于大模型本身的训练数据质量。假设模型已经接触过大量 NumPy、Pandas 这类成熟库的使用样例,那它生成相关代码可能效果不错;但如果要让一些非常小众的库,可能就写不出来了。这时需要结合这些小众库的数据,对模型进行针对性的微调。

我们设想中一个合理的多智能体系统,不应该是所有 Agent 共享一个统一的大模型。当然,理论也可以使用 Claude 4 这样非常强大的模型来统一处理所有任务,但成本非常高。对于许多简单任务,其实只需使用小参数量的专家模型即可高效完成。所以我们认为未来的演进方向应该是:不同任务由不同的 Agent 负责,每个 Agent 背后对接不同、特定的模型,每个 Agent 还会接入专属的工具和知识库,以此形成一个更加分工明确、组合灵活、成本可控的 Agent 生态。



“我个人觉得,通用 Agent 一定是存在的”

唐小引:既然谈到了模型和工具我想 Manus 最早爆火的时候,也引发了大家对于 Anthropic 去年发布的 MCP 的广泛关注。不过我之前一直有点困惑,因为 Manus 作者明确表示他们并没有使用 MCP,但 MCP 却因为 Manus 火了。我之前查看 OpenManus 的项目源码时,发现其中涉及 MCP 相关开发,不知道 OWL 这边的情况是怎样的

范文栋:我们在刚推出 OWL 时,其实并没有集成 MCP但在项目上线后的第五天左右,就加入了对 MCP 的支持。MCP 是一个协议它的最大价值在于:开发者可以通过 MCP 非常方便地接入 MCP 生态系统中已有的各种工具和服务这是一个非常好的生态。

大家都知道,做 Agent 开发时要接入很多第三方工具,需要做很多适配和重复的开发工作,把一个工具适配到另一个框架里。而 MCP 作为统一协议,就很好地解决了这个问题。

目前我们 CAMEL AI 团队也在积极拥抱 MCP 生态计划将 CAMEL 内部已经实现的 40 多种常用工具(如搜索、地图、天气相关功能)全部装进一个 MCP Server 方便大家去做外部调用。

唐小引:那从本质上来说,MCP 和 Agent 之间的关系是怎样的?

范文栋:MCP 更多是偏向模型层的一个设计但由于 Agent 是基于模型层的,因此也能从中受益。它最大的优势在于提供了一套统一的协议和接口,极大简化了 Agent 的开发流程开发者无需重复造轮子即可非常便捷地调用外部那些已接入的 MCP Server

唐小引:今年年初开始,业内有不少声音提出:2025 年将成为“千 Agent、万 Agent 大战”的一年。大家不仅在呼唤通用机器人,也在热议通用 Agent 的可能性。但关于通用 Agent 是否存在,这其实是一个存在争议的话题。以 AI Coding 为例,很多人认为通用的 Coding Agent 很难真正实现,可能更像是一个美好的幻想。那么,围绕这个争议“通用 Agent”这个话题,你哪些观点可以分享

范文栋:首先,大家确实可以看到在过去一两年里,市面上陆续涌现出大量的 Agent 平台,但不同平台的切入点有所不同。例如 MetaGPT 更聚焦在 AI Coding领域,通过多智能体协作完成完整的软件开发流程,是一个相对垂直的方向。

而 CAMEL 的定位则更偏向于通用性我们 CAMEL 定义为一个通用多智能体框架虽然我们没有针对某些特定的业务场景去深挖,我们所构建的工程体系和实践经验,都为后续的垂直拓展打下了坚实基础——开发者可以用 CAMEL 结合自己的业务领域做拓展。

我个人觉得通用 Agent 一定是存在的。就拿 AI 编码来说,像 Devin、Cursor 等成功的 Coding Agent 已经证明了通用能力的可行性。这些智能体背后的关键技术通常包括 RAG也就是让 Agent 通过检索已有的代码片段,理解上下文后生成新代码,再整合回当前开发环境。简单来说是这么一个流程它背后依赖的技术也是通用的就是 Agent + RAG 这一套。

随着 2025 年 Agent 生态的爆发我们可能会看到越来越多的垂直 Agent 项目通用 Agent 一定会作为底层基础设施长期存在并存在着广泛的优化空间。

唐小引:MCP 因 Manus 而迅速走红,甚至 OpenAI 的 Agent SDK 也支持 MCP。随后,虽然 Google 也加入了 MCP 的支持行列,但它还推出了自己的 A2AAgent-to-Agent协议。在此之前,很多人认为 MCP 可能会成为行业标准,尤其是考虑到许多国内的大公司也在采纳 MCP。然而,随着 Google A2A 的推出,现在大家都在比较 MCP 和 A2A,试图评估两者间的竞争态势。那么从 OWL 的视角来看,Google 的 A2A 是否对 OWL 构成了助力呢?

范文栋:MCP 和 A2A 在本质上的切入点有所不同MCP 已经由 Anthropic 成功占据了一个生态位,而 Google 可能希望通过 A2A 建立自己的生态系统。对于任何一种协议而言,其真正价值在于是否拥有足够的参与者和一个繁荣的生态环境如果一个协议参与的人不多声音不够大它的实际应用价值和影响力也比较有限。

相比之下,A2A 更侧重于统一 Agent 之间的接入范式无论是对于 OWL 还是 CAMEL 而言我们认为这种生态是非常好的,并且也在积极支持 A2A。


一份面向开发者的经验总结

唐小引:听你刚才的分享,我特别有感触的一点是,AI 技术更迭太快太容易“过时”有些技术发展很快,比如 AlphaGo 深深影响了一代人;但也有不少技术还没真正大火就已经“过时”了。像 LangChain,可能有段时间很火,但很多人还没学透就已经意识到它的局限性了。如今,也有人说传统的 RAG 已经过时,现在是 Agentic RAG 大行其道的时候。

那么作为一个 AI 从业在学习新技术这件事上,你有没有一些想法可以分享

范文栋:AI 的迭代确实非常快。就拿 LangChain 来说,它目前也在不断迭代,推出了 LangSmith、LangGraph 等新模块。当然我自己还没有花太多时间深入研究这些更新。

作为开发者,我认为核心的一点是要保持充分的学习能力其次是要有非常强的接纳新事物的能力。另外一个新的框架或理念出现我们也要有一定的辨别能力。有时候一个新 Concept 看起来热度很高实际上不一定有真实价值可能是市场营销的结果。

这种情况下我们要去了解它底层的原理,判断它的实际作用,再结合整个技术趋势来决定是否值得投入时间去深入学习如果值得,就应该沉下心来认真研究。只有这样,我们才能不断迭代自己的技术体系,让自己一直站在这个 AI 浪潮的前沿。

唐小引:今年被称为“Agent 的一年”,对于广大开发者,尤其是与你年龄相仿或更年轻的 00 后开发者来说,如果他们希望投身于 Agent 领域并开展相关开发工作,你有哪些经验或建议可以分享?

范文栋:对于刚入门的学习者来说,我认为从事 Agent 开发,首先应该了解其底层机制,而不是一开始就使用高度抽象化的框架。尽管我们本身也是构建 Agent 框架的团队,但我还是建议开发者从模型层面入手,理解模型是如何执行工具调用、记忆系统的工作原理等基础内容一步步地学习。如果一开始你就直接依赖高度抽象的框架可能会在后续想要深入优化或拓展功能时遇到瓶颈。

另外我知道大家现在用 AI Coding的能力非常强,都在用一些 AI IDE 写代码。但我建议大家在使用这些 IDE 写代码的时候,要知其所以然对于某些你不理解的代码片段,一定要去问人,或者问这些 Agent 让它解释清楚。千万不要像最近比较火的Vibe Coding——让 Agent 写完代码后,只要程序能跑通就不深究。长此以往,反而会对你的技术成长产生负面影响。

唐小引:自己是什么时候开始接触编程的?

范文栋:我敲代码应该是在读本科的时候开始学的C 语言太难了

唐小引:那你本科到现在有几年了

范文栋:差不多十年左右

唐小引:哪怕 96 年开发者到现在也有十年编程经验了

范文栋:不过本科的时候,开发强度很低,只是为了完成学业。而且那时候学的语言也比较古早,现在也没怎么用到。后来学 Python,才开始用得比较多。

唐小引:那现在 OWL 的代码,有哪些是 AI Coding 来的?

范文栋:CAMEL 做得比较早那时候 AI Coding 还没那么兴起,很多代码都是手敲的但是随着项目的发展,我们陆续加入了一些 AI 辅助功能后,我个人大约有超过 80% 的代码是通过 AI 生成的。不过生成之后,我会花大量时间进行代码审查,因为 AI 生成的代码,质量需要你自己去把控而我修改的量大概在 20% 左右。

唐小引:你现在日常已经很习惯和 AI Coding 工具一起结对编程了吗?

范文栋:对,我现在非常习惯这种方式。如果现在去掉 AI Coding 工具,让我自己手写,我可能会有点手足无措。

唐小引:但即便如此,你还是会把 AI 生成的代码详细地去看,并进行代码审查对吧?

范文栋:是的。因为 AI Coding可以做好局部某个点代码生成,如果面对的是结构复杂、层级较多的系统代码AI 往往难以理解上下文的完整性那它给出的可能只是一个局部最优解,而不是全局最优解

唐小引:听了文栋的经验分享,我发现即便是 96 年的开发者,也在不断探索与实践的过程中积累了丰富经验都值得我们借鉴与学习。最后感谢文栋带来的精彩分享!

范文栋:好,谢谢大家。(投稿或寻求报道:zhanghy@csdn.net)

· · ·

2025 全球产品经理大会

8月15–16日 · 北京威斯汀酒店

互联网大厂& AI 创业公司产品人齐聚

12 大专题,趋势洞察 × 实战拆解

扫码领取大会 PPT,抢占 AI 产品新红利

(文:AI科技大本营)

发表评论