Anthropic 将在「思考模式」的赛道上发起一次大超车!

根据The Information报道,Anthropic即将在未来几周推出两款重磅升级版模型——
Claude Sonnet和Claude Opus,它们将「思考」功能推向了一个全新境界。

思考模式的终极进化
这次的新模型与现有的推理型AI有什么不同?
关键在于:新模型能在「思考」和「工具使用」之间来回切换。
这是什么意思呢?
简单来说,如果模型在使用工具解决问题时遇到困难,它可以立即切换到「推理模式」,思考问题出在哪里,然后自行纠正!

这简直是给AI装上了「自我反省器」啊!
来看一个实际例子:
假如你让新版Claude为你在曼哈顿东村开的咖啡店进行市场调研,它可能会先搜索美国流行的咖啡店主题。但获取信息后,模型会切换到「思考模式」,意识到全国趋势并不能代表这个特定社区的情况。
于是,它会转而拉取东村的人口统计数据,了解该地区居民的平均年龄和收入,从而提出更有针对性的主题建议。
这不是普通的联网查询,而是真正的思考过程!
代码自检自纠,开发者大福利!
对于开发者来说,新模型还有一项超实用功能——
自动测试并纠正代码。

当Claude生成代码后,它会自动检查代码是否正确运行。如果发现错误,它会暂停下来思考问题可能出在哪里,然后自己进行修正。
这意味着,开发者可以给模型提供高级指令,比如「让这个应用运行得更快」,然后放手让它自己测试各种方法,而不需要人类不断地指导和干预。
想象一下,你只需告诉它目标,它就能自己找到实现途径,这简直就是开发者梦寐以求的助手!
竞争对手怎么说
当然,Anthropic的竞争对手可能会说:「这有什么了不起的,我们早就有类似功能了!」
确实,在OpenAI展示的o3和o4-mini模型中,他们的推理模型也能在审核后自动简化输出的代码。
但Anthropic新模型的与众不同之处在于,它可以在遇到困难时主动切换到思考模式,这种来回切换的能力似乎更进了一步。
用户褒贬不一
值得注意的是,Anthropic之前发布的结合了推理和传统大语言模型的Claude 3.7 Sonnet,用户反应并不都是积极的。
有人抱怨模型更容易「撒谎」和无视用户命令。还有人表示,如果指令不够具体,它比其他AI更可能变得过于雄心勃勃,超出预期范围。
尽管如此,Anthropic依然在加倍押注这种「测试时计算」技术,说明他们对这一路线仍然充满信心。
「思考」能力的意义
那么,新模型的核心优势究竟是什么呢?
很简单:它们能处理更复杂的任务,同时需要更少的人类输入和纠正。
想象一下,当你面对一个复杂问题时,不需要把每一步都详细写清楚,只需给出大致方向,AI就能自己找到解决方案。
这种能力在软件工程等领域尤其有价值,让AI真正成为独立思考的助手,而不仅仅是指令的执行者。
这不正是我们期待已久的AI进化方向吗?
不再是简单的指令-回应模式,而是真正具备自主思考和解决问题的能力。
更像人,更趋于AGI.
拭目以待!
(文:AGI Hunt)