MiniMax-M1开源,Kimi深度研究内测,GPT-5今夏发布,Gemini稳定上线! AI Weekly 6.16-22
ax-M1
发布,MoE 架构,总参数 4560 亿,支持百万 tokens 上下文,是
DeepS
大语言模型
ax-M1
发布,MoE 架构,总参数 4560 亿,支持百万 tokens 上下文,是
DeepS
2025年6月21日,北京晴。代码RAG的切分方法包括基于语法结构和逻辑块的切分策略,以及混合策略。前者破坏语义完整性,后者在保留功能性和连贯性方面表现不佳。改进方案cAST使用抽象语法树进行递归分割,结合贪婪合并以提高信息密度,并通过非空白字符数量来衡量块大小。
2025年AI Agent元年来临,大模型进化成能‘干活’的智能体。Agent具备感知环境、理解目标、拆解任务、调用工具等能力,从被动等待指令到主动规划执行并学习反馈。
开发智能体的关键是大模型、Prompt和工具三者结合。Prompt引导模型理解和执行特定任务,工具提供具体操作手段。智能体的核心流程包括需求理解、工具选择与使用、结果分析及问题解决。
谷歌发布Gemini 2.5系列模型,包含Pro、Flash和Flash-Lite三个版本。Pro版支持多模态输入、超长上下文处理能力;Flash版优化推理速度与成本效率;Flash-Lite版主打极低延迟和高性价比。Gemini 2.5 Pro采用稀疏激活MoE架构、大规模TPU v5p训练及强化学习控制的思维路径,显著提升性能与效率。测试显示其在编程、数学等领域能力全面提升,并具备多模态任务合成与创作输出的能力。
特斯拉前人工智能主管Karpathy探讨了LLM的发展历程及应用前景,将其比喻为’软件3.0′:提示词时代,并提出了构建’部分自治’产品和为智能体服务的基础设施的创业机会。
南京航空航天大学团队提出HBS-KGLLM框架,通过增强知识图谱挖掘有害信息结构化知识,实现有效探测LLMs的安全性能。该方法成功率高、成本低,并已在多款主流模型上测试表现优异。