ICML 2025 何恺明团队提出:高度压缩的Tokenizer可直接用于图像生成

本文提出仅用32个一维离散 token 的高度压缩 TiTok tokenizer,无需训练额外生成模型,通过测试时梯度优化即可完成图像生成、编辑和修复任务。发现极致压缩提高了生成质量,挑战了传统“先压缩后生成”范式。

通义千问深夜更新!Qwen3升级版迈向“分离训练”时代,性能全面超越Kimi-K2,Agent能力亮眼

新版本模型Qwen3-235B-A22B-Instruct-2507-FP8在多项核心能力上实现飞跃,超越Kimi-K2等顶级开源和闭源模型。通义千问团队宣布告别混合思维模式,迈向分离训练时代,并留下大招悬念,暗示复杂推理的Thinking模型可能也在路上。