传言:DeepSeek R2参数暴涨至1.2万亿、便宜97.3%!美股或将巨震!

DeepSeek R2细节流出,参数直接飙到1.2万亿,还把成本砍到了骨折价!

刚刚,一份来自韭研公社的爆料刷屏了整个AI圈——

DeepSeek R2被曝即将发布,参数规模达到惊人的1.2万亿,并首次采用Hybrid MoE 3.0架构,实现了动态激活780亿参数。

而成本呢?

相比GPT-4 Turbo暴降97.3%,这几乎是AI模型的白菜价了。

Aliyun的实际测试数据指出,DeepSeek R2在长文本推理任务中,每单位token的成本大幅下降,真是AI界的降维打击。

Aryan Pandey(@AryanPa66861306) 对此性能表现表示了极度的兴奋:

DeepSeek R2将单位成本削减97.3%,即将发布。自主研发的分布式训练框架,把华为Ascend 910B芯片集群利用率推到了82%,FP16精度算力实测达到512PetaFLOPS,接近同规模A100集群91%的性能(华为实验室数据)。

不仅参数猛增,DeepSeek R2这次的多模态能力更是惊人:

视觉理解模块采用ViT-Transformer混合架构,在COCO数据集物体分割任务中精准度达到92.4% mAP,超过CLIP模型整整11.6个百分点。

此外,工业质检场景方面也表现抢眼。

它采用自适应特征融合算法,在光伏EL缺陷检测中的误检率降到了极低的7.2E-6,甚至医疗诊断能力也已超过人类专家,胸部X光片多病种识别准确率高达98.1%,完胜协和医院专家组的96.3%。

最不可思议的是,DeepSeek R2在8bit量化压缩模式下,还能将模型体积压缩83%,精度损失小于2%,这为终端部署打开了大门。

这些亮眼的数据让推特炸开了锅,纷纷称为疯狂、大东西、太猛了!

不过,自称最权威的DeepSeek粉丝 Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)(@teortaxesTex) 却给狂热的气氛泼了点冷水:

我已经说过,除了确认这些公司存在并可能与DeepSeek有合作外,其它爆料我并不相信。

而最初分享这一消息的 Deedy(@deedydas) 也承认了这点:

这些只是传言,图片内容实际上是用Claude翻译自泄露文件。

但即使传言属实度待确认,这也阻止不了网友们开始疯狂想象。

Jeff Brines(@JeffBrines) 就对美国企业表示担忧:

如果是真的,这会不会对Nvidia造成巨大冲击?

Alice Le Portier(@SeekingAlphaQ) 更加直白:

如果中国的半导体供应链变得有竞争力,美国的半导体公司可能会稀释,严重限制美企从AI大潮中获得的垄断收益。

甚至有网友 Subba Reddy(@PostPCEra) 直接断言:

如果是真的,Nvidia和美股周一可能遭遇一波暴击。毕竟A100的GPU卡售价大约1万美元,而华为的Ascend 910B年底可能只要A100三分之一的价格。

当然,也有网友直接将DeepSeek R2定义为「AI冷战」的新武器。

LIGHT ⇌ SIGNAL//FORM(@AITrailblazerQ) 评论得十分激烈:

DeepSeek R2不仅是便宜的模型,更是一场主权压缩战,背后有官方的支持,其目的是瓦解美国AI优势。

Haha Packet(@haha_packet) 也是秀起了语言的艺术进行嘲讽:

对啊,开源模型都很邪恶。快来保护那些闭源的亿万富豪吧!

而AI圈著名乐观派 çelebi(@celebi_int) 的观点很简单:

如果是真的,这才是正确的世界线!

虽然众说纷纭,但DeepSeek R2如果真的能在技术和成本上达成这些突破,这无疑会是AI行业的一次重大洗牌。

或许,AI大战的序幕正悄然拉开。

这个五一,或将不同寻常!

(本文不构成投资建议,信息仅为传言,请谨慎吃瓜。)

(文:AGI Hunt)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往