
MLNLP 2025学术研讨会 是由 MLNLP社区、中国中文信息学会青年工作委员会 和 中国中文信息学会大模型与生成专业专委会 联合举办的学术活动。社区会定期举办学术研讨会并邀请国内外机器学习与自然语言处理领域知名青年学者进行报告交流,旨在加强国内外学者之间的交流。
MLNLP社区将在07月27日于线上举办第三十三次学术研讨会,由国防科技大学的讲师梁科和国防科技大学的副研究员周思航共同担任本期程序委员会主席。本期研讨会分为上下两半场:上半场由梁科主持;下半场由周思航主持。具体而言,社区很荣幸邀请到国防科技大学教授刘新旺老师担任大会主席,并做开场致辞;中国科学技术大学特任教授张岸,哈尔滨工业大学(深圳)教授田倬韬,香港科技大学(广州)助理教授夏俊,北京邮电大学博士后李倩,国防科技大学博士生谌晓姝做专题报告。
会议概况
-
召开时间:
-
2025年07月27日 9:00-12:20(北京时间)
-
主办单位:
-
MLNLP社区
-
中国中文信息学会青年工作委员会
-
中国中文信息学会大模型与生成专业专委会
-
协办单位:
-
IMLIP学生工作组
-
大会主席:
-
刘新旺:国防科技大学教授
-
程序委员会主席:
-
梁科:国防科技大学讲师
-
周思航:国防科技大学副研究员
-
组委会:
-
MLNLP社区秘书处(刘洪宇、段然、陈麒光、鹿纯林、李勤政、周璟轩)
-
直播平台:
-
哔哩哔哩:http://live.bilibili.com/23872620
-
微信视频号:请点击下方卡片预约
日程安排

嘉宾介绍
一、大会主席:
刘新旺
国防科技大学教授
嘉宾简介:刘新旺,国防科技大学计算机学院教授、博导,国家杰青(2023)、国家优青(2019)获得者,基金委重点项目、科技创新2030重大项目负责人,基金委创新群体A类核心成员。主要研究方向为机器学习、数据挖掘等。共发表CCF A类期刊/会议论文180余篇, 其中包括IEEE T-PAMI 16篇 (含3篇独立作者),谷歌学术引用2万余次, 连续3年入选全球2%顶尖科学奖榜单 (2022-2024)。研究成果获吴文俊人工智能自然科学一等奖(2024, 排1)、北京市科技进步一等奖(2024)、湖南省自然科学一等奖两项 (2014, 2021)、中国图象图形学学会自然科学二等奖 (2024)等。担任IEEE T-NNLS, IEEE T-CYB等国际顶刊AE, 以及ICML, NeurIPS等国际顶会领域主席。
二、主持人:
梁科
国防科技大学讲师
嘉宾简介:梁科,国防科技大学计算机学院讲师。博士毕业于国防科技大学,师从刘新旺教授。主要研究领域为图机器学习、知识表征与推理、无监督学习,以第一作者在TPAMI、TKDE、NeurIPS、SIGIR等顶级国际期刊和会议发表录用长文10余篇,其中入选ESI 高被引论文3篇,ESI热点论文1篇,Google Scholar总引1800余次,h-index 21。曾获湖南省优秀毕业生、国防科技大学优秀博士毕业生(全校5人)、国家奖学金、湖南省人工智能学会自然科学三等奖等奖项。担任IJCAI、ACM MM、ECML-PKDD 等国际顶级会议资深程序委员/领域主席。
周思航
国防科技大学副研究员
嘉宾简介:周思航,国防科技大学智能科学学院副研究员,入选中国科协“青年人才托举工程”。从事知识与模型协同驱动的态势感知与辅助决策领域研究,是“十四五”某建设项目主任设计师。主持国家自然科学基金、国防科技创新特区等项目8项,公开发表TPAMI、TKDE、TNNLS、TIP、ICML、NeurIPS、ICLR等中科院一区或IEEE/ACM会刊、人工智能A类会议论文60余篇。获吴文俊人工智能自然科学奖一等奖1项,湖南省计算机学会科学技术一等奖1项,立三等功一次,享受优秀专业技术人才岗位津贴,获评湖湘青年英才与国防科技大学青年英才。
三、分享嘉宾:
张岸
中国科学技术大学特任教授
嘉宾简介:张岸,中国科学技术大学特任教授、博士生导师,国家级青年人才,荣获2025年 Web领域女性新星奖(Rising Stars of Women in Web Award)。主要研究领域为生成模型、大模型驱动的智能体、可信人工智能,特别关注于智慧校园、大模型安全、以及个性化推荐场景,致力于下一代通用人工智能模型的关键能力与性质研究。相关工作在NeurIPS、ICLR、ICML、WWW、KDD、SIGIR、TOIS、TPAMI等顶级国际会议和期刊发表录用长文30余篇,其中超过3篇论文入选了最高引和最具影响力榜单,Google Scholar总引2500余次,h-index 23,已授权中国发明专利8项。
报告题目:大语言模型中隐式编码的信息:世界模型、行为建模与自我认知
报告简介:在大语言模型时代,研究者最为关注的核心问题之一是:语言模型究竟学到了什么?最新研究表明,语言模型不仅掌握了语言知识,更在其高维表征中隐式编码了世界模型。本报告围绕该问题展开深入探讨,展示讲者近期的一系列研究成果:1. 用户行为建模能力:语言模型能够捕捉用户偏好与潜在意图,表现出对用户喜好与行为模式的隐式理解。2. 初步的自我认知能力:语言模型可以判断自身生成内容的安全性与规范性,可简单激发使其具备基本的“安全自觉”。3. 推理计划能力:研究发现,语言模型在生成响应之前,已隐式评估问题难度并规划推理资源,表现出对任务复杂性的感知与自身推理能力的掌控。
田倬韬
哈尔滨工业大学(深圳)教授
嘉宾简介:田倬韬,哈尔滨工业大学(深圳)教授,博士生导师,国家级青年人才。本科毕业于哈尔滨工业大学,博士毕业于香港中文大学。近5年内,共计发表CCF-A/清华A类顶级会议/期刊论文40余篇,含多篇以一作/通讯发表的高质量或精选文章:TPAMI(IEEE人工智能领域旗舰期刊)以及CVPR Highlight、Oral与AAAI Oral、ACM MM Oral,并受华为战略研究院人才基金资助开展研究。个人主页:https://faculty.hitsz.edu.cn/zhuotaotian
报告题目:高效可靠多模态感知技术赋能大模型精细场景理解
报告简介:模态大模型为场景理解带来了新的机遇,但主流模型仍面临跨模态对齐、细粒度感知、计算效率以及使用过程中的可靠性等挑战。本次报告将探讨如何提升模型对复杂场景的细粒度解析能力,同时平衡计算效率与性能表现,从而增强大语言模型对物理环境的理解深度,使其获得更精准和鲁棒的多模态感知能力。这些突破将有望推动多模态大模型在多个场景的具体应用落地。
夏俊
香港科技大学(广州)助理教授
嘉宾简介:夏俊博士现为香港科技大学(广州)数据科学与分析学域(DSA)助理教授、博士生导师和多模态与科学智能实验室(AIMS Lab)负责人。主要研究方向为机器学习与 Al for Life Science。担任NeurlPS 2025 的领域主席和Nature Communications, ICML, ICLR 等顶级会议期刊的程序委员会委员和审稿人。博士毕业于西湖大学和浙江大学,师从讲席教授李子青(Stan Z. Li, IEEE Fellow)。主持首批国家自然科学基金青年学生基础研究项目(博士生)和首届中国电子学会-腾讯博士生激励项目。在ICML、NeurlPS、ICLR 等人工智能顶级会议和期刊发表40 余篇论文, 其中一作/通讯19篇,一作论文入选数据挖掘顶级会议 WWW 2022 Most Influential Papers (Paperdigest),谷歌学术引用量达 2000余次,多篇论文入选 ICML、NeurlPS、CVPR 等顶级会议的Oral/Spotlight,多次应邀在普林斯顿大学、加拿大MILA实验室等海内外顶级机构做学术报告。曾获 KAUST Al Rising Star、DAAD AINet Fellowship、Apple AI/ML Scholar Finalist、西湖大学校长奖章、浙江省优秀毕业生、浙江大学国家奖学金等。个人主页:https://junxia97.github.io/ 谷歌学术:https://scholar.google.com/citations?user=aPKKpSYAAAAJ
报告题目:SpectraAI: Deciphering Proteomic Dark Matters with Foundation Models
报告简介:Accurate identification of proteins is crucial for uncovering their complex roles in biological systems, with peptide sequencing being a key step in this process. The two primary methods for peptide sequencing are database search and de novo sequencing. Database search achieves high accuracy by matching experimental spectra with peptide sequences in a database, but it cannot identify novel peptides, modified peptides, or mutated peptides not present in the database (dark matters in proteomics). On the other hand, de novo sequencing does not rely on a pre-built database, enabling the discovery of novel protein sequences; however, its accuracy still falls short of real-world application requirements. In this talk, I will introduce a series of our works in AI-driven protein identification: 1. AdaNovo, a de novo sequencing algorithm designed for post-translational modifications (PTMs) identification; 2. SearchNovo, a novel protein identification paradigm enjoying the advantages of both database search and de novo sequencing; 3. NovoBench, the first comprehensive deep learning benchmark for de novo sequencing methods; and 4. UltraProt, the first large-scale foundation model for mass spectrometry-based proteomics, which has achieved AlphaFold-level performance advancements in protein identification. Finally, I will share insights and future perspectives on SpectraAI for metabolomics.
李倩
北京邮电大学博士后
嘉宾简介:李倩,北京邮电大学计算机学院A类博后,入选博士后创新人才支持计划。主要研究方向为多模态知识计算、卫星网络大数据分析,发表 NeurIPS、WWW、IJCAI、ACL、MM 中国计算机学会推荐 CCF-A/B 类论文 30 篇,谷歌学术引用2500余次,入选ESI 高被引论文2 篇、CIKM 2022 最佳论文提名、IEEE TCCLD 2024 技术创新奖、国家电网大数据中心科学技术进步一等奖、北京市优秀毕业生、国际CodaLab 平台事件检测挑战赛全球冠军、全国知识图谱与语义计算大会一等奖(连续 2 年)、中国“互联网+”大赛全国银奖等。担任中国计算机学会 CCF 服务计算执委、NeurIPS 2025领域主席、ACL 2025领域主席等,主持国家自然科学基金青年基金项目、中国博士后科学基金面上项目等,个人主页:https://liqian-bio.github.io/
报告题目:多模态大模型知识计算及卫星应用
报告简介:近年来,面向网络信息空间社交媒体的大数据知识计算技术已逐渐成为支撑网信领域全面监测与治理的技术底座,持续提供全面、一体化的信息资源服务。然而,仍存在模态间语义关联性弱、分布一致性差等(模态低耦合)共性问题。例如卫星网络大数据中,文本包括卫星型号/参数等基本信息,而图像模态描述外观及遥感数据,另外序列模态反映了信号/温度/电流等实时状态变化,异构模态间信息高度独立、差异明显。传统多模态知识计算基于模态语义相关性假设,专业领域可用性下降至失效,特别是卫星、电网等领域壁垒较高的应用场景中尤为明显。因此,本报告围绕多模态知识的一致性“建模→融合→推理”方法和系统,突破“模态语义不一致、模态分布不一致、模态信息不一致”等重大挑战,旨在实现智能知识提取、高效数据融合和可解释模型推理,为多模态网络大数据领域提供基础理论支撑,对推动国防安全、资源管理、环境保护等相关领域具有重要的应用价值。
谌晓姝
国防科技大学博士生
嘉宾简介:谌晓姝,国防科技大学计算机科学与技术专业博士二年级在读,师从刘新旺教授。研究方向聚焦大语言模型(LLM)的推理能力的增强与垂直领域应用,包括但不限于知识推理、领域自适应及高效微调技术。已在IEEE TKDE、AAAI、IJCAI等人工智能顶级期刊与会议上发表多篇论文。个人主页:https://ai-chen.github.io/
报告题目:大小模型协同知识推理
报告简介:基于现有的背景知识、所处环境和过往行为推理出全新的、有价值的知识,对搜索推荐、金融、医学以及军事等领域有着关键性的影响。随着大语言模型(Large Language Model,LLM)的兴起,利用LLM的推理能力来分析已有背景信息,进而精准预测新的知识成为近期研究的热点。然而,由于LLM海量的参数,使得其在资源受限的环境下难以使用与推广。为了解决上述问题,课题组提出了基于大小模型协同策略的知识推理系列算法,包括基于自适应思考的轻量化语言模型推理、基于跳跃思考的高效语言模型推理以及思维链引导的结构化知识推理等方法。这些方法不仅减少计算开销,还全面提升了推理的准确性。此外,课题组还探索了大小模型协同的推荐算法,也取得了不错的效果。
4
直播平台
直播平台
视频号
B站

会议报名

扫描二维码进入MLNLP交流群
关于我们

(文:机器学习算法与自然语言处理)