记忆力下降83%!206页研究发现:用ChatGPT越多,大脑越笨

近期MIT研究发现,使用AI语言模型如ChatGPT可能会降低写作任务的认知负荷,但同时也可能影响记忆、批判性思维和写作技能。该研究通过脑电图记录参与者的大脑活动,并收集反馈数据,揭示了不同组别在写作质量、神经活动以及认知成本方面的差异。

Agentic CoT驱动,清华DO-RAG领域问答性能飙升33%,远超FastGPT、Dify

DO-RAG是清华提出的可扩展且可定制的混合问答框架,结合多级知识图谱构建与语义向量检索,采用新颖的Agentic CoT架构从非结构化文档中提取结构化关系,通过融合图检索和向量检索结果生成上下文感知的回答,并引入基于事实的细化步骤减少幻觉。

Anthropic实践发现:Multi-Agent系统的核心仍然是Prompt设计!

近期Anthropic分享了构建多智能体研究系统的最佳实践,核心是8条提示工程与评估原则。Claude能通过网络搜索和工具完成任务。架构采用协调者-工作者模式,首席智能体负责任务分配。使用动态搜索代替静态检索方法。

TransDiff–最简洁的AR Transformer + Diffusion图像生成方法

本文介绍了一种新的图像生成方法TransDiff,它结合了AR Transformer和Diffusion模型,并提出了Multi-Reference Autoregression(MRAR)范式。TransDiff使用较小的Diffusion Decoder显著降低参数量,同时在基准测试中表现出色。

豆包 1.6发布后,我用火山引擎Trae + MCP,仅半天做了一个“秒懂科研”的!

小伙伴们吐槽读Paper耗时耗力,新大模型豆包1.6通过强大推理能力和超长上下文理解能力显著提升论文解读效率。同时,火山引擎AI云原生工具箱简化Agent开发流程,仅半天时间就能生成高质量的科研智能体PaperAgent。

首例!苹果竟被AI大模型Claude写论文驳斥:R1思考幻觉的幻觉!

上周苹果因发布关于推理大模型的研究观点而引起巨大讨论:尽管LRMs具备复杂自我反思机制,但超出一定阈值时仍会完全崩溃。反驳声音不断,苹果通过论文驳斥:这些失败更多是由于实验设计选择而非模型本身局限性。

首例!苹果竟被AI大模型Claude写论文驳斥:思考幻觉的幻觉!

上周苹果因发布关于推理大模型的研究观点而引起巨大讨论:尽管LRMs具备复杂自我反思机制,但在问题复杂性超过一定阈值时会完全崩溃。苹果反驳称实验设计选择而非模型本身局限性导致失败。