甲小姐对话汪玉:高性价比算力供不应求,是中国算力生态的核心矛盾

做算力供给方和需求方的“桥梁”,让国内中小型企业都有算力可用。


作者|甲小姐 小喇叭


过去几个月,DeepSeek在全球AI生态掀起一股强势的“鲶鱼效应”,大模型领域为期两年的开闭源之争终于出现里程碑式转折,开源路线第一次闯出了逼近闭源SOTA水平的模型,AI平权真正成为了可能。


随之而来的,是包括应用、AI Infra、算力中心,乃至底层芯片架构在内,整条AI产业链既有秩序打破和重组。


过去一年,中国新建了200余座智算中心,但点亮率不足20%。DeepSeek的出现点亮了大批闲置算力中心,激活了大量需求,却也让国产算力生态的核心矛盾暴露在公众面前——高性价比算力供不应求。


矛盾来自中国算力生态的沉疴。模型基础设施产业链的链条是“能源-建设-运营”,其中,建设过热,却运营不足,这不仅导致大量算力闲置,更使得整个算力产业链的利润向建设方和能源方集中,运营方持续亏损,进而运营越发不充分,最终形成恶性循环。


汪玉看到了这个核心矛盾背后的机遇。


汪玉是国际电气与电子工程师协会会士,清华大学电子工程系长聘教授、系主任,清华大学信息科学技术学院副院长,也是无问芯穹的发起人。他曾联合创立AI芯片公司深鉴科技,后被赛灵思收购,亲历软硬协同优化的技术攻坚。


2023年5月,他发起无问芯穹。他将无问芯穹定位为“算力运营商”,并立下一个朴实的目标——做算力供给方和需求方的“桥梁”,让国内中小型企业都有算力可用。而要做到这一点,技术问题只是需要解决的所有问题的冰山一角。


在无问芯穹即将迎来2周年的时刻,甲小姐对话汪玉,聊聊国产算力生态的当下和未来。




1.谈态势:“开源和闭源不需要分出胜负”


甲小姐:2023年到2024年中国AI市场经历了爆发、混乱到收敛的过程,先是“百模大战”,然后逐渐收敛至“大厂+六小虎”的格局,而这一格局在2025年初被DeepSeek打破了,产业秩序再次不确定起来。你近来的核心感受是什么?


汪玉:忙着写各种报告,给各种人解释DeepSeek为什么会引发这么大的关注。


甲小姐:你怎么解释?


汪玉:主要有两点:


一是开源体系使模型接近闭源模型的SOTA水平,推动了模型平权。DeepSeek的出现有点像当年苹果的封闭系统对于安卓的感受。安卓出来后,更多人能参与这件事,这是个巨大的变化。我们开玩笑说,DeepSeek就像游戏里开放了装备商店,所有人都能公平地获取顶级“武器”。


二是资源受限反而激发了我们的创新精神。当年AMD因资金不足选择Chiplet(小芯片)路线,后来Chiplet成为共识。现在欧美大厂也开始研究DeepSeek,这很有趣。


甲小姐:小米加步枪也能“闹革命”。


汪玉:但即使是小米加步枪,总体资源也得comparable(相当的),否则想赢也很难。


甲小姐:去年5月你在甲子引力上提到“今年(2024)并没有让我觉得AI的能力有了显著提升的感受”,这之后你的感受有变化吗?AI的能力有本质变化吗?


汪玉:最初的语言模型是基于瞬间直觉反馈,去年o1推出后,模型的多层次推理能力增强,支持长时间思考,这是个重大变化。


但在软硬件优化方面,尚未看到本质变化。当然还是有变化发生,例如,月之暗面提出PD分离(Prefilling Decoding Disaggregation),下一步可能是计算分离。我觉得只在学校里做从0到1的突破不够,后续的工程拓展还是需要与工业界有更多合作。


甲小姐:Deepseek发布后,闭源模型还有必要存在吗?


汪玉:闭源会继续存在,就像安卓出现后苹果还在——垂直整合的路线会一直存在开源和闭源不需要分出胜负


甲小姐:DeepSeek有可能成为AI时代的安卓吗?


汪玉:至少现在像。


甲小姐:很多人说DeepSeek像安卓是从开源角度做类比,如果从商业模式或生态版图来看呢?


汪玉:现在AI的垂直整合优化,从算法到软件,到芯片,甚至到应用,这几层之间都是耦合的,但每一层都在波动。目前我们没有看到某一层在收敛。


甲小姐:是技术路线没有收敛,还是什么没有收敛?


汪玉:接口。传统CPU定义了软硬件接口,通过指令集明确分层,上层软件、下层芯片。但在AI时代,不同应用和模型对指令的需求各不相同,没有明确分工。这也是为什么我们需要把所有人都召集起来。


甲小姐:收敛到最后的形态可能是什么?


汪玉:收敛到最后的形态不一定跟现在的操作系统类似,可能会出现新的东西。是操作系统,还是一个模型或者模型调度的一套agent机制?现在有这么多APP,是因为操作系统决定了上面的APP长这个样子,但AI可能在未来就一个入口,你跟它交互就好了。


甲小姐:你看好阿里的AI超级框吗?


汪玉:这都是路上的尝试。可能底层模型还得进一步变得更厉害,还是挺难的。


甲小姐:在你眼中,DeepSeek对算力生态的影响利好谁,利空谁?


汪玉:现在有两个共识,一是DeepSeek把蛋糕做大了;二是模型训练需求将远小于推理需求。目前英伟达的芯片在训练方面表现最佳,但推理芯片的最佳选择尚不确定


甲小姐:DeepSeek自身强大的Infra能力是否会对AI Infra厂商带来冲击?


汪玉:这是利好。AI Infra人才稀缺,大模型厂商肯定会自己干,但众多中小企业缺乏Infra能力,我们从day 1就看到了这一需求。


甲小姐:现在的时间点看,Scaling law还有效吗?


汪玉:互联网数据不足可能会影响语言模型的训练效果。但从多模态和与物理世界对齐的角度看,我们还有很多没做好,还可以按照Scaling Law的逻辑继续发展,因为目前好数据太少。数据的采集、生成和利用非常关键,否则很难有更好的模型。




2.谈矛盾:“高性价比的算力供不应求,一定要拉通算大账


甲小姐:你曾说过大模型的基础设施建设存在“过度炒作”如何理解“过度炒作”?


汪玉:算力产业是一整条链,能源、建设、运营,之后是小企业成长。


一定要拉通算大账。理想情况是,每个环节都有利润。能源、建设、运营都得赚钱,小企业成长,资本方获利。


目前建设环节过热,只注重建设而忽视运营能力的补齐。大部分中小企业客户没有直接使用裸金属的能力,导致很多空置的情况。


甲小姐:2025年中国算力供需的核心矛盾是什么?


汪玉:高性价比算力供不应求。


先看芯片。基础设施软件、芯片架构的优化程度和制造成本决定了芯片好不好用。如果性价比不足,用户就不会优先使用。


再算力中心的建设和使用。


CoreWeave(注:由英伟达支持的云服务初创公司)建了就能卖出去,短短几年取得了高速增长,是因为现在英伟达芯片供不应求,它优化得好,就会有profit margin(利润率)。美国虽然能源成本更高,但芯片性价比高,提升了整个算力中心的性价比。


但在中国,芯片本身的性价比还有待提高,而电力指标、建设成本、运营成本以及之后小企业的利润空间均是单独计算的。在没有把所有项拉通算大帐的情况下,运营肯定非常亏。


假设,建一个算力中心,要达到同样的能力,买英伟达的卡需要1亿,国产芯片需要1.5亿,那差距的50%谁来买单?消费者不会接受,只能由产业链分摊。加上国产芯片的生态不够完善,对运营平台能力的要求其实更高,技术投入也更大。


在产业链上,建设方和能源方都能赚钱,资本方也能从小企业成长中获利,但算力运营环节的性价比却算不过来。如果中国算力产业链没有整体优势,就会出现供需错配。


在产业链上若想盈利,必须学会算大账——将资本投入、绿色能源、建设规划、平台运营、优质企业招引、本地经济增长、人才培养等通盘考虑,才能真正理解产业升级的价值。


甲小姐:抛开算账问题,目前国内芯片的性能表现如何?


汪玉:目前国内芯片和国际先进水平大概差1.5代。国内大多数芯片性能已接近英伟达A系列,最新一代接近H系列,但能否达到B系列(尤其是B200)水平仍不确定。国内主要受限于芯片制造供应链,尤其是制程和带宽。制程受限于代工能力,带宽受限于封装技术。如果国内供应链能突破瓶颈,吸收台积电的先进制程和CoWoS等先进封装技术,赶上英伟达是有可能的。


甲小姐:在整个算力价值链中,Infra的比重有多大?


汪玉:我没有具体算过,但Infra肯定有价值,机会在于把所有芯片用起来,这能产生巨大的社会价值。中国的问题是,各种异构芯片分散在不同地方,归不同人所有,中小B企业找不到合适算力。我们把“桥梁”搭起来,本身就很有价值。


甲小姐:算力之外,模型也在降本。比如DeepSeek模型一轮训练的成本仅560万美元,把模型训练的成本打下来;阿里通义千问推出的推理模型QwQ-32B,消费级显卡也能部署,也大大降低了部署和应用高性能模型的成本。这是否暂时缓解了中国对高性能GPU的燃眉之急?


汪玉:训练上看,Scaling Law还是有效的,基础模型训练对高性能算力的需求不仅依然存在,还需要系统优化能力进一步提高硬件的利用效率。推理上看,推理时计算叠加应用生态起来,市场上对推理算力还有百倍以上的市场需求。全盘来看,我们还是处于算力不足的大环境下。




3.谈目标:“绕过或重现CUDA都不是本质”


甲小姐:有知情人士透露,2024年,中国新建成了200多个智算中心,点亮率却不足20%。但DeepSeek点亮了很多智算中心。事实是这样吗?


汪玉:确实有一些智算中心开始运营了,但肯定在亏损。归根结底还是算账问题。假设建设算力中心时花了7万元购买了很多显卡,但现在市场价已经降至5-6万元,那算力中心就是卖多少亏多少,不卖亏得更惨。对于性能要求不高的客户可能会用这些算力,但目前这类客户数量还不够多。


甲小姐:整体上看国内的算力需求大致有几类,分别怎么解决


汪玉:绝大多数中小B和所有C端需求都在用公有云,已上市的公有云厂商基本上股价都在涨。第二类是很多政府建的算力中心,主要问题在于没有人做运营,这是我们要做的事。


甲小姐:不少人都在debate,用性价比高的进口卡能赚钱,用国产卡会亏,那该怎么办?


汪玉:长远来看,我们希望建设“国产模型-国产芯片-国产系统”的全国产闭环。国家正在讨论是否建立一个从应用到算法、软件系统和芯片的联盟,让企业充分利用现有芯片。只有用得越多,才能更快改进,性价比才会提升


甲小姐:绕过CUDA是国产算力生态的核心目标吗?


汪玉:现在有两种路径,一种是CUDA兼容,比如沐曦、摩尔线程;一种是重写指令集,比如华为、寒武纪。其实CUDA只是一个program的一个model,绕不绕过它,或是否要重做CUDA并不是本质问题。只要大家能够约定好某些通用接口,例如在通信协议和底层重要算子上达成一致,能把芯片用起来,这就够了。


甲小姐:会出现一个强势企业主导这个约定吗?


汪玉:现在好像没有强势大企业,这种割裂的格局可能还会持续一段时间。


甲小姐:目前各家大厂都做生态,生态和生态之间会形成什么样的关系?


汪玉:我们现在干的事情就是把不同生态间的壁垒抹掉,让大家接入统一的训练和推理接口,因为绝大多数人并不关心底层到底长什么样,只要能调用就好了。 




4.谈模式:“我们在做各种‘盒子’,用户不需要知道盒子里是什么”


甲小姐:无问芯穹的出发点是做AI Infra,但现在已经涉足了算力租赁、大模型云平台、一体机、芯片(如LPU)设计,以及端侧模型优化等,你们似乎什么都做?


汪玉:其实我们是在做不同规模的“盒子”——超大盒子、中等盒子和小盒子。


超大盒子是云上的训练或推理集群,中等盒子是边缘侧的比如一体机,小盒子是智能终端。用户不需要感受到盒子内部是什么,就能用上高性价比的算力。


大盒子本质上是在异构、异域、异属硬件上搭建的云平台。搭建这样的云平台非常复杂,需要涵盖IaaS、PaaS以及一些上层工具,因此看起来我们在做很多事情。


甲小姐:你们内部如何决定做什么,不做什么?


汪玉明确要先做好大盒子,云还是很重要


甲小姐:你们怎么定义“一朵云”?


汪玉:过往大家往往认为云就是重资产投入,但我们看来云的核心能力其实在于平台上的服务能力闭环,如何把建设的算力资源让千行百业的客户们用起来,这是我们的使命。


甲小姐:你们具体赚谁的钱?


汪玉:大盒子的商业模式主要就是通过算力运营和提供技术服务来获取商业利润,客户有标准化需求也要定制化能力,我们的核心优势就在于过硬的技术以及项目运营交付的能力,解决不同需求时,对技术和功能的优先级有不同要求。中等盒子和小盒子的输入和输出定义很明确,背后就是技术逻辑;大盒子的输入输出都不明确,每个人的诉求都不同,需要满足很多功能化的要求。


甲小姐:DeepSeek一体机各家都在推,一体机是不是过热了?


汪玉:还好。应用爆发后,硬件要跟上,大家总得有能用的东西。许多企业因数据安全问题需要私有化部署,DeepSeek一体机肯定是要做的。只不过中国的竞争永远都相对更激烈。


部分企业推出的DeepSeek一体机 制图:甲子光年


甲小姐:据甲子光年不完全统计,现在已经有60多家公司推出一体机,大家有定义清楚一体机吗?


汪玉:就像大家最开始建了很多算力中心一样,好用不好用自己知道,过一段时间就会慢慢收敛了,收敛是需要时间的。


甲小姐:你们做的LPU现在是什么进展?LPU最终会代替GPU吗?


汪玉:已经有FPGA的版本,芯片仿真也做了,效果很不错,但流片可能需要上亿级投入。我们不知道未来机器人芯片的具体形态。目前大家普遍使用GPU是因为通用性强,未来一旦需求收敛,可能会转向更简单直接的设计用于训练和推理。


甲小姐:你们自己囤卡吗?


汪玉:我们买过一些,但很少。囤卡是重资产运营逻辑,我们不希望这样。很多人问我们和Coreweave的区别,我说Coreweave是自己own算力,我们是利用算力。


甲小姐:去年12月你们发布了一款全模态的端侧理解模型。端侧AI虽然大势所趋,但当模型参数量不断增长,端侧设备是否注定只能做“残血版AI”?


汪玉:端模型被调侃成“残血版AI”,主要还是从纯算法视角去评价。但终端用户的感知是个整体的事,它需要先结合底层硬件、中间的推理软件,然后才是模型,最后还涉及产品定义、交互效果。端侧AI关键在于如何更好地和云上AI配合使用


甲小姐:今天无问芯穹的定位还是算力运营商吗?


汪玉:现阶段肯定还是。云上还是第一步,一定要做扎实。


甲小姐:运营商的壁垒是技术突破还是资源整合?


汪玉:都是壁垒。算力中心项目对政府而言类似招商引资,我们不仅要提供技术。部分企业对技术理解不足,不知道做一朵云有多难,政府也很难判断,所以有时无问芯穹的角色很像一个国家算力网建设的智库。


甲小姐:你们和地方政府具体的合作模式是什么?


汪玉:每个政府需求不同,国内算力分布不均,大多集中在不发达地区,少数建在发达城市的算力可能用不起来。我们需要将这些算力联网,帮政府搭建平台,帮助政府更好的落实算力政策,支持当地产业升级。


甲小姐:你们现在的商业模式是什么?


汪玉:云服务本身就是很成熟的商业模式,我们的区别仅仅是不持有资产本身,但要提供的技术能力是一样的。


甲小姐:未来各业务板块在无问芯穹的比重如何?


汪玉:我们还是非常聚焦在如何把“一朵云”做好,同时凭借公有云经验,在私有云部署上能提供更好的服务,积累更多客户。端侧是公司业务增长的第二曲线,做“盒子”的逻辑不会变。




5.谈创业:“和上次很像,有一部分想得很清楚,有一部分需要实践迭代”


甲小姐:你怎么向投资人解释你的商业计划?


汪玉:AI创业存在不确定性,但我们有确定的优势。我们的技术能力处于第一梯队,资源整合能力在小公司中是最强的,资金储备也足够支撑短期发展。现在我们更关注能否整合中国算力,服务好重点区域,这已非常不容易了。


甲小姐:你的上一家公司深鉴科技最终以被收购为结局,你有设想过无问芯穹的结局吗?


汪玉:我还是挺希望能独立的,因为也不缺钱(笑)。卖掉公司的真正挑战是团队方向可能改变,这关乎共同使命和愿景。我们希望让企业都有算力可用。现在绝大多数人已经能理解,如果基础设施(Infra)做得好,不仅能节省成本,还能提升模型本身的能力。我希望我们能为这个目标努力很久,别人做我怕坚持不住,我会努力让这个目标坚持下去。


甲小姐:CEO夏立雪曾对媒体表示,无问芯穹的目标是让大模型落地成本下降10000倍。这要如何实现?


汪玉:10000倍的下降肯定会是行业共同努力的结果,包括应用、算法、软件和芯片制造各个环节。我们在这些领域确实有技术贡献,但不可能独立完成。


甲小姐:通俗地讲,成本下降的方法是什么?


汪玉:我最近开了门课,叫基础人工智能软硬件核心技术讨论,有一个公式:



按照这个公式:计算量和参数量要降低,利用率要提升。


算法层干的是计算量、参数量和利用率;芯片层干的是算力和带宽;能耗是能源建设的问题;硬件价格跟制造工艺相关——从这个公式就可以看到成本下降要多方面的努力。


甲小姐:无问芯穹今年的目标是什么?


汪玉:要focus,用“一朵云”解决问题。当然,过程中可能会遇到各种技术需求和工程化问题。


甲小姐:这次创业你的心态有什么变化吗?


汪玉:这次平和一点。我喜欢做创新的事,这次和上次很像,有一部分想得很清楚,还有一部分需要实践迭代。




6.谈趋势:“物理知识的参与必不可少”


甲小姐:今年具身智能、物理AI的概念很火,你怎么看这些热度?


汪玉:这都是一种趋势预判。我们预计AI服务将呈现两种形态:纯数字空间的形态和与物理世界互动的形态。AI要与物理世界互动,就需要物理知识作为支撑,目前尚未出现超越现有物理公式的AI能力。


甲小姐:有流派认为,一个真正的超级大脑能自我学习,不需要依赖太多物理公式。你怎么看这一派?


汪玉:现在具身智能有的依赖现实数据,也依赖模拟数据。模拟数据就会把物理公式往里怼,相当于生成一些数据来训练模型。目前来看,物理知识的参与是必不可少的,例如拧螺丝的力度这类细节,对模型训练来说是非常复杂且关键的。


甲小姐:物理AI的平台最终会以什么形态出现?


汪玉:具身智能目前有VLA(Vision Language Action)这种形态,它描述了从感知到推理再到执行的操作流程。不过,VLA可能还会继续演进,但无论如何,未来都会更注重与物理世界的交互,需要具备感知和执行能力,这与传统训练方式不同。因此,电子领域可能会在具身智能方面发挥更大作用。因为电子更偏物理,计算机则偏数学。


甲小姐:你之前提到会重点关注医疗和机器人方向的数据应用价值,为什么是这两个领域?


汪玉:从电子系视角看,未来电子系将连接物理世界与数字世界,涵盖感知、传输、计算和反馈。数字化是智能化的基础,需要依托载体。我们正思考未来的核心载体,并从未来十年到二十年的情境倒推今天应做什么。


从基础设施角度看,通信基础设施尤其是卫星通信至关重要。我们系有人尝试用八颗卫星覆盖全球,为海洋、低空等场景提供通信支持;同时,算力基础设施也需要升级,未来医疗、能源、城市模拟等各领域都需要算力支持。


此外,无人化趋势下,未来机器人的数量可能会达到上亿量级,而目前机器人的产量还处于千、万量级,弥补这4-5个数量级的差距需要技术推动。


甲小姐:如果AI在未来出现了新的技术路线,进入AI3.0时代,AI Infra的角色会受到挑战吗?你们路线会受到影响吗?


汪玉:我不清楚,如果AI3.0不需要那么多算力,那就不需要基础设施了(笑)。但目前似乎有一种趋势:从出现到成为产业引领者通常需要3到5年。这一波科技公司对学术前沿把控较积极,都在关注新变化,因为不确定性是最大挑战。所以大家都在写论文,目的是交流,至少要清楚前沿在哪里。


甲小姐:现在人工智能出现了两条路:AGI(通用人工智能),通过提升单体智能逼近甚至超越人类决策能力;MoA(多智能体协作),超级协调者指挥多个Agent协同作战。哪个是人工智能的终局?还有其他可能吗?


汪玉:现在MoA(多智能体协作)刚开始,趋势可能向上;而MoE(混合专家模型)趋势较平缓,所以MoA更受关注。


唐杰之前解读OpenAI时,认为OpenAI的成功在于组织能力,这是最高层次的能力。无论是人机共处还是机器间的协作,都离不开协同。从机器角度看,单体能力突破受限于物理限制,因此合作和协同大概率是必然趋势。


甲小姐:我印象很深刻的是,去年你参与甲子引力,我最后一个问题是,如果有一个预言家可以告诉你们十年之后一个问题的正确答案,你最好奇的问题是什么?你的答案是:“人可以长生吗?”为什么是这个问题?


汪玉:人活一辈子都希望能多做一些有趣的事,我们现在做算力和具身至少能为人衰老后的境遇提供支撑。


甲小姐:你觉得人可以长生吗?


汪玉:很难,120岁是有可能的。




| 甲小姐对话系列回顾 |

甲小姐对话特伦斯:进化比你聪明


甲小姐对话凯文·凯利:关于AI,我从未写进书里的判断


甲小姐对话张钹:中国大模型的死与生


甲小姐对话田渊栋:Scaling law代表一个非常悲观的未来


甲小姐对话Pika创始人郭文景:我想做一家伟大的公司


甲小姐对话傅盛:搞AI真的不能再这么烧钱了







(文:甲子光年)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往