95后北大校友挑起ChatGPT Agent大梁!今年刚博士毕业,曾获陶哲轩支持的AIMO第二名
OpenAI发布会C位被华人占据,孙之庆、马丁(MengTian)李和张熙堃等华人员工参与重要项目。小扎挖角多名OpenAI研究员后引起关注,首席研究官Mark Chen离职加入Meta,Alexandr Wang成为全球最年轻的亿万富豪之一。
OpenAI发布会C位被华人占据,孙之庆、马丁(MengTian)李和张熙堃等华人员工参与重要项目。小扎挖角多名OpenAI研究员后引起关注,首席研究官Mark Chen离职加入Meta,Alexandr Wang成为全球最年轻的亿万富豪之一。
2025年初,DeepSeek发布超级大模型引发开源热潮,随后OpenAI推出价格战组合拳和多模态模型。新智元作为头部媒体联合视频号推出《10分前沿科创季》快速追踪全球AI动态。
2025年,AI 写作不再是“能不能写”的问题,而是“哪个写得像人、像我、像爆款”。
OpenAI
Unsloth在文档中提到DeepSeek-V3-0526模型,但随后删除。该模型性能强劲,被描述为世界上表现最好的开源模型之一。Daniel Han认为V3-0526可能基于传言和推测发布。社区对此表示关注和期待。
在Sam Altman与Daniel Selsam的对话中,讨论了GPT-4.5实验背后的扩展法则。Daniel提出智能源于压缩,而宇宙的知识是一个可以不断挖掘的分形。这引发了一个问题:为什么训练更大的模型需要更长的时间却能得到更好的结果?通过压缩原理,AI能发现隐藏在数据中的稀有而有意义的模式,揭示出现实是递归可压缩的本质。
在Sam Altman与Daniel Selsam的对话中,讨论了GPT-4.5实验验证扩展法则的有效性。Daniel认为智能源于压缩,宇宙知识是可挖掘的分形。随着模型规模增加,能捕捉到更多稀疏但重要的概念,导致性能提升。这引发问题:为什么训练更大模型更有效?智能是否像宇宙一样无限复杂且可压缩?
2025年4月3日,北京天气晴朗。《Large Language Models Pass the Turing Test》评测了四个系统的表现,发现添加人设提示可以显著提升AI模型被误认为人类的比例。关于RAG和语音识别技术,文章介绍了WIKIVIDEO视频文章生成方案及面向东方语言的Dolphin语音大模型开源方案。
今天是2025年4月3日,星期四,北京天气晴朗。文章介绍了关于大模型测试《Large Language Models Pass the Turing Test》,以及RAG用于视频文章生成的方案WIKIVIDEO和面向东方语言的语音识别开源方案Dolphin。