视觉理解
字节跳动发了个新模型:BAGEL-7B-MoT
这是一个混合专家多模态模型,基于Qwen2.5-7B-Instruct和siglip-so400m-14-980-flash-attn2-navit模型微调,并使用FLUX.1-schnell VAE模型,支持视觉理解、文本到图像生成及图像编辑。
从底层重构强化学习训练框架,阿里高德开源新方法:抛弃替代损失函数,仅需优化原始目标
阿里-高德团队提出组策略梯度优化GPG方法,仅需优化原始目标,解决已有方法偏差,提高训练效率。在实验中,GPG性能全面超越现有方法,有望成为下一代基础模型训练的关键方法。
OpenAI发布GPT-4.1:百万token上下文,全方位碾压4o并且价格更低,GPT-4.5三个月后下线
,分别是 GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano,它们仅通过 API
AI也能操作手机了!DroidRun 让 Agent 实现智能手机自动化操作!
DroidRun 是一款新的开源 AI 手机操作工具,能像人类一样操作 Android 手机。结合视觉理解与 UI 结构提取技术,实现流畅的交互体验。它不仅能打开 App、发送消息,还能自动导航菜单、处理错误,甚至完成复杂任务如订车或录视频。项目尚未正式开源,但即将上线 GitHub 仓库。