KDD 2025 图也能变token!STAG首提“软量化”,打通GNN与LLM鸿沟


TL;DR

我们提出了 STAG(Soft Tokenization for Text-attributed Graphs),一个创新的自监督框架,通过量化技术将图的结构信息直接转换为离散 token,实现图学习与大语言模型的无缝集成。该方法在多个节点分类基准上达到 SOTA 性能,支持真正的零样本迁移学习,无需任何标记数据!



论文标题:

Quantizing Text-attributed Graphs for Semantic-Structural Integration

论文链接:

https://arxiv.org/pdf/2507.19526

代码链接:

https://github.com/jybosg/STAG



引言

文本属性图(Text-attributed Graphs)在社交媒体网络分析,学术引用网络,知识图谱构建,电商推荐系统等领域广泛存在。这些图不仅包含丰富的拓扑结构信息,还蕴含大量文本语义信息,为深度理解复杂关系提供了独特机会。


随着 ChatGPT,GPT-4,LLaMA 等大语言模型的快速发展,GraphLLM 成为当前 AI 研究的前沿热点。如何让强大的 LLM 理解图结构,同时保持其卓越的语义理解能力,是实现真正“图-语言”智能的关键。


然而,现有方法仍面临根本性挑战:图的连续嵌入空间与 LLM 的离散 token 空间存在天然鸿沟,跨域迁移学习严重依赖昂贵的标记数据。



研究动机

当前方法存在显著局限:


  • 对齐困难:传统方法需要昂贵的投影网络来对齐图嵌入与 LLM token 空间

  • 手工设计:依赖人工设计的子图描述技术(如“节点 A 连接到 B 和 C”),难以扩展且不稳定

  • 标签依赖:现有跨域方法需要源域标记数据,成本高昂且限制适应性

  • 架构绑定:方法通常绑定特定 LLM 架构,缺乏灵活性



创新方法

STAG 框架包含三个核心创新:

4.1 语义-结构融合模块

我们设计了参数高效的特征融合机制,巧妙整合 GNN 学习的结构表示与原始文本的语义表示:


  • 双路径设计:分别处理结构信息(通过 GAT 编码器)和语义信息 (通过冻结的sentence transformer)

  • 归一化融合:L2 归一化保持特征方向信息,避免不同模态特征的尺度差异

  • 自适应权重:可学习参数  和  动态平衡结构与语义的贡献度

  • 语义对齐:KL 散度损失确保融合后的表示保持与原始文本的语义一致性

核心公式-语义结构融合损失(Semantic-Structural Fusion):

公式解析:


  • :GNN 编码器学习的结构表示(structural embedding)

  • :可学习的投影矩阵,将结构特征对齐到语义空间

  • :原始文本的语义表示(semantic embedding)

  • :可学习的融合权重,控制结构信息与语义信息的相对重要性

  • :L2 范数归一化,确保不同模态特征具有相同的尺度

技术突破:通过单位球面上的加权组合,既保持了特征的方向性语义,又避免了尺度不匹配问题。相比传统 concatenation,该方法参数量更少且数值更稳定。

4.2 软分配量化策略

针对图数据缺乏自然 token 化结构的挑战, 我们创新性地设计了软分配机制:


  • 基于语义相似度:采用余弦相似度而非 L2 距离,更好地处理高维语义空间的相似性

  • 概率分布映射:将每个节点映射到整个 codebook 的概率分布,而非单一token

  • 温度控制:可调节温度参数 τ 控制分配的“软硬程度”,平衡表达能力与泛化性

  • 防过拟合设计:软分配天然避免了对特定 token 的过度依赖,增强跨域迁移能力

核心公式-软分配注意力机制(Soft Assignment Attention):

公式解析:


  • :融合后的节点表示 (来自上述语义-结构融合)

  • :第  个 codebook 向量,对应 LLaMA 词汇表中的 token 嵌入

  • :余弦相似度函数,计算表示向量与 codebook 的语义匹配度

  • :codebook 大小(15,062 个精选英文 token)

  • :软分配温度参数,控制注意力分布的“尖锐程度”

量化策略-加权组合(Weighted Combination):

技术突破:相比 VQ-VAE 的硬分配(),我们的软分配策略特别适合处理图的不规则结构,同时保持了 token 空间的连续性和语义一致性。

4.3 双分支训练目标

STAG 采用双分支架构同时优化语义保持和结构感知两个目标:


  • 重构分支保持节点级语义信息,确保量化过程不损失文本语义

  • 对比分支: 捕获邻域结构模式,利用图掩码策略学习拓扑关系

  • 冻结 codebook 设计:确保跨 LLM 语义一致性,避免 codebook 漂移

重构损失-缩放余弦误差(Scaled Cosine Error, SCE):

公式解析:


  • :节点  的原始语义特征

  • :经过量化-解码后的重构特征

  • :缩放因子,控制重构误差的惩罚强度

  • 设计优势:相比 MSE 损失,SCE 避免了梯度消失问题,对语义特征更敏感

对比损失-InfoNCE(Contrastive Learning):

公式解析:


  • :掩码节点  的解码表示

  • :节点  的原始特征(正样本)

  • :负样本集合(其他掩码节点)

  • :对比学习温度参数

  • 核心思想:通过邻域结构预测掩码节点,迫使模型学习图的拓扑模式

联合优化目标:

4.4 灵活推理机制

STAG 的一大优势是支持多种推理策略,可根据具体需求和资源约束灵活选择:

4.4.1 LLM 推理路径

将量化后的结构-语义信息直接转换为 LLM 可理解的 token 序列:


Step 1:Token 选择策略


  • 计算融合表示  与 codebook 的注意力分布

  • 选择 top-k 个最高权重的 token:

  • 通常设置  平衡信息量与推理效率

Step 2:Prompt 构建 


  • Few-shot 示例:“节点 tokens:[research,methodology,experiment] → 类别:Research Paper”

  • Zero-shot 查询:“节点 tokens:[algorithm,computation,optimization] → 预测类别:?”

  • 系统提示:明确分类任务和候选类别列表

Step 3:LLM 分类


  • 利用 LLM 的语义理解能力进行上下文学习

  • 支持多种 LLM 架构:LLaMA2/3,Vicuna,GPT-4o 等

  • 无需额外训练,即插即用

4.4.2 传统推理路径

直接使用学习到的连续表示进行分类,更高效且无需 LLM:


线性探测(Linear Probing):

  • :可训练的分类器权重

  • :冻结的融合表示 (来自预训练模型)

  • 仅训练分类器,保持表示学习的通用性

4.4.3 提示调优增强

轻量级适应机制,专门针对 few-shot 场景优化:


核心思想:引入小型 prompt 网络  微调融合表示

双重优化目标:


  1. Commitment Loss

  2. Weighted Contrastive:利用类别语义相似度引导学习

推理方式:


  • 有 LLM → 量化 → tokens → LLM分类

  • 无 LLM → 类别相似度 → 直接预测

4.4.4 推理策略对比


灵活性优势:


  • 即时切换:同一预训练模型支持所有推理方式

  • 渐进式部署:从零样本→few-shot→fully-supervised逐步优化

  • 资源适配:根据计算资源选择最合适的推理策略



卓越性能

在 7 个文本属性图数据集上的全面评估显示:

5.1 Few-shot 学习(5-way 5-shot)

我们在多个具有挑战性的数据集上进行了广泛评估:

关键优势:


  • STAG+Prompt Tuning 在所有跨域任务中均显著优于需要源域标签的方法

  • 即使在同域评估中也保持与最强 GraphMAE2 基线的竞争优势

5.2 Zero-shot 学习

  • 无需任何标记数据实现强性能

  • 大幅超越需要源域标签的基线方法

5.3 LLM 兼容性

  • 支持 LLaMA2/3, Vicuna, GPT-4o 等多种架构

  • 性能随模型规模一致提升

  • 提示调优带来稳定性能增益

5.4 任务泛化能力

  • 链路预测:在 ogbn-products 上达到 96.85%

  • 边分类:FB15K237 上达到 74.80%

  • 子图分类:多数据集均有提升



总结与展望

STAG 开创性地解决了图学习与大语言模型融合的核心难题:


✅ 首次实现图结构信息到离散 token 空间的直接映射


✅ 首次在跨域学习中实现真正的零样本迁移(无需源域标签)


✅ 首次提供统一框架支持有/无 LLM 的多种学习范式


✅ 首次展示跨 LLM 架构的一致性能表现


未来工作将扩展到图级任务和链式推理,进一步推动图学习与 LLM 的深度融合!


(文:PaperWeekly)

发表评论