赛博禅心
视觉模型落地:AI打工,干活全自动
AI 在字节发布的豆包1.5深度思考模型中应用了一项视觉理解模型,能支持对单目标、多目标等进行边界框或点提示定位,并支持3D定位。该模型已广泛应用于各类巡检商业化场景中。通过此技术,用户可以将图交给它识别所有寿司盘的位置,并输出坐标信息。
o3 & o4-mini 发布:哪些模型该被替代
今天凌晨,OpenAI 发布两款新模型:o3 和 o4-mini。o3 是 o1 的升级版,适合复杂系统和多步推理;o4-mini 是 o3-mini 的替代品,价格更优惠且性能提升。文章总结了两款模型在不同场景下的表现及推荐使用场景。
HiDream:最强文生图开源模型,来自合肥
HiDream-I1 成功登上 Hugging Face 模型趋势榜第二,获得广泛好评。它由来自合肥的 MIT 协议开源团队开发,具备高效率和高质量图像生成能力。该模型拥有 Full、Dev 和 Fast 三个版本,并支持在不同场景下的应用。
智谱 Z1:首款“瞬时模型”发布
人眨眼的时间。Z1-AirX 是首个国内大模型厂商提供的“瞬时模型”,它在 0.3 秒内完成首响应和生成50+个汉字回复。这改变了一般 AI 的延迟交互节奏,使得用户输入与输出同步进行。
我所理解的大模型:语言的幻术
本文探讨了大模型通过Prompt使用AI的本质及局限性,强调人与AI的交流更多是基于设定上下文引导其回答,而非真正理解信息。文章指出大模型无法独立思考和判断,并讨论了信任与可靠性的关系、技术背后的偏见以及未来影响等议题。