
2025年6月27日,中国中文信息学会大模型与生成专委会2025大模型战略研讨会在哈尔滨成功举办!本次大会由中国中文信息学会大模型与生成专委会主办,哈尔滨工业大学承办。大会旨在讨论OpenAI-O1、DeepSeek-R1等带来的技术革命、交流最新研究成果、探讨后大模型时代的研究方向,并发布 CIPS-LMG华为云脑洞基金。会议邀请多名自然语言处理和大模型方向领域专家作特邀报告,并组织多位思辨嘉宾分组讨论交流。近50位领域资深专家与青年学者参会,深入探讨、碰撞思想、共话大模型未来。

2025大模型战略研讨会 大会合影
6月27日上午,大会正式开幕。哈尔滨工业大学杨沐昀教授主持开幕式。华为云技术创新部杨振华部长、专委会主任、哈尔滨工业大学(深圳)张民教授、国际计算语言学学会主席宗成庆教授分别致辞。张民教授特别感谢国际计算语言学学会终身成就奖获得者李生教授出席本次战略研讨会。
哈尔滨工业大学杨沐昀教授主持开幕式

华为云技术创新部杨振华部长致辞

大模型与生成专委会主任、哈尔滨工业大学(深圳)张民教授致辞

国际计算语言学学会主席宗成庆教授致辞

国际计算语言学学会终身成就奖获得者李生教授
特邀出席
CIPS-LMG华为云脑洞基金合作签约仪式隆重举行。华为云技术创新部杨振华部长和大模型与生成专委会主任张民教授代表双方签约。杨振华部长提出,一个产业要做到世界第一,需要有超越世界的技术构想,希望本基金能为老师们开展原创、打破常规的科研工作提供良好的支持。
华为云AI系统创新Lab主任怀宝兴博士向与会代表介绍基金详情,本基金面向华为云AI基础设施提供多个课题方向,包括基于灵衢超节点的大模型训推、Agent、多模态等。
CIPS-LMG华为云脑洞基金签约
华为云怀宝兴主任介绍基金详情
哈尔滨工业大学左旺孟教授、清华大学东昱晓教授、哈尔滨工业大学刘劼教授分别作特邀报告。左教授以“多模态大模型后训练技术研究”为主题,从数据集构建、领域调优和多模态推理多个角度,阐述了后训练技术的发展为大模型能力的提升和广泛应用提供了新的发展契机。左教授认为,预训练语言大模型虽然具有巨大的潜能,但在与减少幻觉、人类价值对齐、适应下游任务、引入更多模态等方面仍有待提升,后训练技术因而成为大模型走向应用的重要环节。在多模态场景中,视觉算法+LLM的范式可以提供精细化高质量的数据及标注;对齐视觉表达和语言描述、可有效提升模型推理能力。

哈尔滨工业大学左旺孟教授作特邀报告
东昱晓教授以“基础大模型的智能水平提升探索”为主题,聚焦基座大模型的推理、视觉、长文本三项基础能力,介绍了GLM基座模型训练的关键技术。东教授认为,大模型推理中,基于规则的奖励、鼓励探索、强化学习增强的树搜索等方式可有效增强Test-time scaling;针对视觉大模型,图片与文本在Transformer内部的对齐可有效提高多模态大模型对图片的理解与生成能力;面对大模型长文本输入,课程学习可有效缓解策略分布漂移和反馈信号稀疏的问题,并提升模型解决难题的能力。
清华大学东昱晓教授作特邀报告
刘劼教授以“群体智能自主作业智慧农场”为主题,从智慧农场实现范式“知”“行”“群”“知”“用”四个角度出发,介绍了团队在大模型赋能农业领域的相关成果。刘教授认为,粮食安全关乎国家命脉、种族延续,用最前沿的技术赋能农业我们责无旁贷。工业化农业具有模型弱、变化多、复制难、成本高的特点,大模型在自动驾驶、耕地自动化分割与矢量化、局部天气预测、农业领域多模态问答等场景中有巨大优势。未来,大模型将在多模态感知、基因融合的作物生长预测、非人工环境的自动驾驶与精准执行等场景中发挥作用,大力推动我国农业现代化的实现。
哈尔滨工业大学刘劼教授作特邀报告
6月27日下午,研讨会进行思辨讨论环节。复旦大学邱锡鹏教授主持思辨议题:扩散模型or自回归模型,谁是大模型的未来?北京大学贺笛、北京大学袁粒、上海交通大学林洲汉、中科院软件所林鸿宇作为特邀思辨嘉宾发言。针对“扩散模型能否撼动自回归模型的主导地位?”,嘉宾普遍认为当前的扩散模型效果和效率无法全面超越自回归模型;部分嘉宾认为自回归模型和扩散模型是两种完全不同的架构,也有嘉宾认为两者在某些维度例如不断修正的模式有一定相似性。针对“扩散模型与自回归模型谁更有望引领 AGI?”,部分嘉宾认为,扩散模型具有全局视野并不断润色的方式与人类思维方式更像,但大模型是否必须模仿人类才能达到更强智能有待商榷;部分嘉宾认为,自回归模型也可以通过思维链的方式先做规划再逐步解决问题,因此很难说哪种模型更“拟人”;现场观众参与讨论认为,现在的大模型不能完全认为是next token prediction的模式,reasoning的过程本身也隐含了规划、反思等机制。
复旦大学邱锡鹏教授主持思辨议题
清华大学黄民烈教授主持思辨议题:大模型安全与对齐。上海交通大学张倬胜、中国人民大学王希廷、北京大学吉嘉铭、清华大学邱寒作为特邀思辨嘉宾发言。四位嘉宾首先分别从面向复杂对抗场景的智能体、大模型价值观探索、大模型的欺骗性行为和现实世界数据污染的角度,简要介绍了对大模型安全的思考,后进入讨论环节。针对“大模型安全的本质是什么?”,嘉宾认为,可从safety和security两个角度定义安全,模型吸收的数据决定了其具有怎样的价值观,让模型既符合人类预期又能规避数据污染是大模型安全需要解决的问题。主持人认为,大模型安全是具有社会属性的,而现有大模型构建是基于信息论中概率层面的建模,大模型安全的本质是如何把社会属性注入大模型。针对“智能体安全问题与普通的LLM的安全有什么本质不同?”,嘉宾认为,智能体安全中环境因素很重要,模型外挂工具、智能体的权限、智能体之间的信息传播等都会带来安全问题。针对“价值观是否可以有明确的内涵和外延?”,嘉宾普遍认为,价值观的定义是多维度的,社会学角度希望价值观不断演进,科学角度希望价值观尽可能精确,两者的矛盾客观存在。针对“长推理模型中有些什么重要的安全问题?”,嘉宾认为,长推理中reward的稀疏和不准确问题加大了对齐难度,模型在强化学习框架下为了得到高reward可能出现不择手段的行为。针对“从安全和对齐的角度,下一个重要的方向和范式会是什么?”,嘉宾认为,用户定制化安全规范、价值与人类双向价值对齐、团体价值对齐等可能是未来研究热点。
清华大学黄民烈教授主持思辨议题
北京大学万小军教授主持思辨议题:大模型评估:靠谱与否?复旦大学黄萱菁、澳门大学黄辉、东北大学肖桐、国防科技大学宋伊萍作为特邀思辨嘉宾发言。针对“现有基准测试能否真实反映大模型在实际应用中的能力?”,部分嘉宾认为,大模型在如高考、竞赛中的亮眼表现可以反映出大模型真实能力的不断提升;部分嘉宾认为,当前大模型在真实的复杂推理场景和决策场景的能力与实际应用距离较远。针对“如何看待当前业界各类评估基准/数据集爆炸式增长的现象?”,嘉宾普遍看好这一现象,同时提出,从数据集到大模型能力的映射需要规范化、平台化、体系化,以减少数据集的重复建设,提升数据集的质量和可用性。针对“如何解决当前大模型评估面临的数据污染、指标饱和等问题?”,一位嘉宾分享了团队用新出的高考卷子评估各大模型的高考得分的经历,认为现有的评测研究的确很难完全排除数据污染的问题;部分嘉宾认为,除了依赖污染检测手段,不断用新问题、新数据进行动态评测才能真正解决此类问题。针对“为什么基于n-gram的指标能够被长期使用?为什么指标替换如此困难?“,嘉宾一致认为,简单、有效、优雅的指标能够被长期采用,而新的指标优劣需要实践和时间验证。针对“排行榜上的评估结果排名是否会加剧大模型的垄断?”,嘉宾认为,就像人类基因传承需要多样性一样,只有更多样的大模型参与社区的演化与发展,才能使得大模型不断朝着人类期望的方向发展。

北京大学万小军教授主持思辨议题
研讨会现场气氛热烈,互动频频。会场内与会者积极参与报告内容研讨、议题思辨,会场外专家学者们自由交流、增进友谊。

场内场外交流热烈
研讨会闭幕式上,大模型与生成专委会主任、哈尔滨工业大学(深圳)张民教授对大会进行总结。总结指出,大模型基础理论至关重要,符号、连接和行为主义有机融合,信息和物理世界自然衔接是人工智能的发展战略。最后,张民教授再次感谢华为云计算技术有限公司对专委会的大力支持,感谢哈尔滨工业大学师生为本次精彩大会的辛勤付出。研讨会在一片掌声中落下帷幕。
编辑:宋伊萍
审核:户保田
关于我们
MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。

关于我们

(文:机器学习算法与自然语言处理)