视觉模型落地:AI打工,干活全自动
AI 在字节发布的豆包1.5深度思考模型中应用了一项视觉理解模型,能支持对单目标、多目标等进行边界框或点提示定位,并支持3D定位。该模型已广泛应用于各类巡检商业化场景中。通过此技术,用户可以将图交给它识别所有寿司盘的位置,并输出坐标信息。
AI 在字节发布的豆包1.5深度思考模型中应用了一项视觉理解模型,能支持对单目标、多目标等进行边界框或点提示定位,并支持3D定位。该模型已广泛应用于各类巡检商业化场景中。通过此技术,用户可以将图交给它识别所有寿司盘的位置,并输出坐标信息。
近日,字节跳动发布豆包1.5深度思考模型,该模型在推理能力、速度和多模态方面实现了突破性升级。其参数量为200B,激活参数仅为20B,具有低延迟(<20ms)的优势。通过多项权威基准测试,该模型在数学推理和编程竞赛方面表现出色,并展示了其对图片的视觉推理能力。
文章介绍了字节跳动发布的新模型豆包1.5和视觉版Doubao-1.5-thinking-pro-vision,并展示了它们在推理位置、根据冰箱内容定制食谱、判断车祸原因以及家居改造建议等方面的出色表现,对比了与OpenAI o3的差异。
字节最新视频生成模型Seaweed-Video仅70亿参数,实现超越同类140亿参数效果。它能根据文本描述创建各种分辨率和时长的视频,并支持图像生成、控制功能增强等新特性。
字节跳动发布Seed-Thinking-v1.5技术细节报告,其性能接近Gemini-2.5-Pro和O3-mini-high水平。
InfiniteYou 是字节跳动团队推出的身份保持图像生成框架,通过扩散变压器技术确保面部特征在不同场景中的保留。其核心创新InfuseNet提升了身份保真度,并解决了图文对齐偏差和生成质量不佳的问题。HyperAI超神经提供教程及Demo演示。
UNO 是字节跳动开源的研究成果,是一个可以同时支持单主体和多主体图像生成的AI模型。它解决了当前AI图像生成领域的数据扩展和主体扩展问题,并展示了强大的泛化能力,能够适应多种应用场景。