顶刊TPAMI 2025!南大、南洋理工联合提出PROOF:基于视觉语言模型的持续学习新范式 上午8时 2025/03/27 作者 PaperWeekly 保持原有知识的完整性。传统 CIL 方法主要依赖视觉信息进行特征提取,而近年来兴起的视觉-语言模型(
WWW 2025 TAMU、UIUC等提出全新因素链框架,用于论文-评审人匹配 下午11时 2025/03/05 作者 PaperWeekly 提交数量的迅速增加,我们越来越依赖有效的论文-评审人匹配模型。此前在这一领域的研究考虑了多种因素来评
ICLR 2025 北航、港理工等提出全新Node IDs框架,学习超短离散节点表示 下午11时 2025/03/02 作者 PaperWeekly Ds)的新型节点离散表示学习框架。该框架利用向量量化(Vector Quantization,VQ)
货拉拉等发布LalaEval:面向领域大模型的端到端人工评测框架 下午11时 2025/01/14 作者 PaperWeekly ©PaperWeekly 原创 · 作者 | 孙崇衍 单位 | 香港中文大学博士生 研究方向 | 大
「智平方」成功斩获2025年具身智能领域首笔重磅融资! 下午4时 2025/01/09 作者 机器人大讲堂 机器人大讲堂获悉,智平方近日官宣完成 Pre-A轮战略融资。该轮融资由达晨财智与敦鸿资产联合领投,基