AI学会「做梦」自我进化

Anthropic这项功能,可能改变人机协作的终局

Anthropic在刚刚结束的Code with Claude 2026大会上,发布了一个让我反复看了三遍的功能:Dreaming——让AI学会"做梦"。

你没看错,是做梦。

这不是噱头。Anthropic给Claude的智能体平台加了一个后台进程,让AI在任务间隙自动进入一种"休眠"状态,在休眠中审阅过去的会话记录、整理记忆库、发现反复出现的错误模式,然后生成优化后的新记忆。

用50岁的话来说:这不就是人脑晚上睡觉时做的事情吗?把白天学到的碎片知识,整合成长期记忆。

"我们不再只是在做聊天机器人,我们在做会自我进化的协作者。"

—— Dario Amodei

一、三个核心能力,一个逻辑

第一,Dreaming(梦境记忆蒸馏)。定期在后台运行,读过去最多100个历史会话,合并重复数据、更新过时条目、提炼宏观规律。法律科技公司Harvey用它后,任务完成率翻了约6倍。

第二,Outcomes(结果驱动执行)。开发者定义"成功标准",系统分配独立的评分智能体给AI打分,不达标就打回去重写。内部测试显示,docx文档生成成功率提高8.4%,pptx提高10.1%。

第三,Multiagent Orchestration(多智能体编排)。主智能体把任务拆成多个子任务,分配给专项子智能体并行处理。在月球采矿无人机着陆模拟中,安全评分从67%提到100%。

这三个能力的底层逻辑只有一个:让AI从"每次从零出发"变成"跨会话累积学习"。

"这不是工具的升级,这是AI角色从螺丝刀到员工的质变。"

二、算力的暗战

你可能注意到,这次大会最火的新闻其实是Anthropic和SpaceX签了协议——租下马斯克Colossus 1数据中心的全部算力,包含22万张英伟达GPU。

这事有意思。三个月前马斯克还在公开骂Anthropic"反人类且邪恶",现在就把全部算力租给它了。

但我看到的不只是商业合作,是一个更深层的信号:算力正在成为AI公司最大的战略瓶颈。Anthropic第一季度收入暴增80倍,预期才10倍,结果根本扛不住。

而且马斯克在协议里藏了一个条款:如果Anthropic的AI做出危害人类的行为,SpaceX有权随时收回算力。这叫什么?"自毁开关"。租给你,但随时能拔你的插头。

三、国内该对标什么?

国内的Manus、字节Coze、阿里的智能体平台都在追赶"Agents as Infrastructure"这条叙事线,让企业零代码搭建AI智能体。但Anthropic已经跑到下一个阶段了——让智能体"跨会话自我演进"。

这已经不是"工具怎么好用"的竞争,而是"AI员工成熟度"的竞争。

四、半百视角

我今年50岁,经历了互联网从无到有的整个周期。回顾过去二十年,技术革命往往不是由某一个产品触发的,而是由某个"范式转换"。

从命令行到图形界面,是范式转换。从桌面到移动,是范式转换。

AI从"问答工具"到"自我进化的协作者",可能就是下一个范式转换。

Dreaming的意义不在于"AI能做梦"这个噱头,而在于:Anthropic在认真思考一个问题——怎么让AI不需要人类盯着,也能越干越好。

对企业来说,这意味着AI员工的培训成本会越来越低,适应速度会越来越快。你今天教它一次,明天它可能自己就能总结出规律。

当然,离真正的"自主进化"还很远。Dreaming目前还是研究预览阶段。但趋势已经很明显——AI正在从被使用者变成合作者。

作为创业者,我们应该问的不是"AI会不会取代人",而是"我怎么让AI成为我最聪明的员工"。

"未来企业的竞争力,不在于你有多少AI工具,而在于你让AI进化到什么程度。"

—— 半百观AI

💡 行动建议

如果你是一家企业的管理者:

  • 评估现有AI工具是否支持"跨会话记忆"——不支持的话,每次都是从零开始
  • 关注多智能体编排的落地场景——哪些业务环节可以拆成子任务并行处理
  • 建立AI输出评分标准——像Outcomes一样,用规则而不是感觉来评估AI质量

如果你是AI从业者:

  • 研究Dreaming的技术实现思路:异步记忆整理 + 人类审核 + 增量优化
  • 思考如何把这个思路迁移到国产大模型的应用层

📌 来源:Anthropic Code with Claude 2026开发者大会 | 快科技 | 36氪