Loading... # The Agentic Self:AI Agent 架构与自我提升方法的相似性分析 # 一、新闻概述 ## 1. 标题 The Agentic Self:AI Agent 架构与自我提升方法的相似性分析 ## 2. 发布时间 2026 年 1 月 2 日 ## 3. 来源 Murat Demirbas 博客(Metadata) # 二、核心内容 ## 1. 事件摘要 ### A. 主要内容 这是一篇关于 AI Agent 架构设计的观察性文章,作者发现 AI Agent 的工程技巧与人类自我提升的建议有着惊人的相似性。 ### B. 核心亮点 - AI Agent 的三大核心习惯与人类自我提升方法高度一致 - 写作、自我对话、角色扮演是智能的关键 - 这些简单习惯构成了推理的核心机制 ## 2. 关键信息 ### A. 核心观点 2025 年是 Agent 之年,AGI 的目标已经转移,我们不再要求 AI 仅仅"对话",而是要求它"行动"。 ### B. 三大核心习惯 1. 写下来(Writing things down) 2. 自我对话循环(Talking to yourself in a loop) 3. 扮演他人(Pretending to be someone else) ### C. 涉及技术领域 - 大语言模型(LLM) - AI Agent 系统 - 多智能体系统 - 上下文窗口管理 # 三、详细报道 ## 1. 主要内容 ### A. 写作的非凡有效性 文章引用了图灵奖得主 Manuel Blum 教授在《给研究生新生的建议》中的观点: "没有写作,你只是一个有限自动机。有了写作,你就拥有了图灵机的非凡力量。" **核心原理**: - 人类工作记忆有限,类似有限自动机 - 写作将记忆卸载到纸上,形成外部存储 - 通过外部化内部状态,可以从简单的模式匹配器进化为强大的思考者 **在 AI Agent 中的应用**: - LLM 的上下文窗口有限,有效注意力范围受限 - 解决方案:给 Agent 提供草稿纸 - 强制 AI 在执行代码前先写下计划 - 提供内存缓冲区存储事实供后续使用 - 本质上是要求 AI 做笔记 ```mermaid graph LR A[有限上下文窗口] -->|需要扩展| B[外部记忆系统] B --> C[草稿纸/计划] B --> D[内存缓冲区] C --> E[复杂问题解决] D --> E E --> F[鲁棒思考者] ```  ### B. 思考就是自我对话循环 **历史背景**: - 长期以来,LLM 被视为简单的输入输出机器 - DeepSeek 通过在模型回答前暂停,提示它先"思考",改变了这一范式 - 对计算机而言,"思考"意味着生成对用户隐藏的文本:内部独白 **核心引言**: - "写作是自然界让你知道你的思考有多草率的方式" —— Guindon - "如果不写作就思考,你只是以为自己在思考" —— Leslie Lamport **Agent 循环机制**: ```mermaid graph TD A[开始] --> B[行动/写作] B --> C[推理] C --> D{检查} D -->|需要改进| B D -->|满意| E[完成] C --> F[自我提问] F --> G["我应该检查这个假设吗?"] F --> H["这看起来不对,让我再试一次"] G --> C H --> B ```  思考不是一个瞬时的过程,而是一个循环。Agent 通过与自己对话,将复杂问题分解为可管理的部分。 ### C. 角色扮演:第二自我效应 **理论来源**: 文章提到《The Alter Ego Effect》这本书,其核心思想是采用一个人设可以释放隐藏的能力。通过进入特定角色,你可以绕过自己的抑制,触发一套定义的行为。 **实际案例**: - 碧昂丝在舞台上有"Sasha Fierce" - 大多数运动员有他们的"比赛面孔" **在 AI Agent 中的应用**: 这种技术被称为"角色提示"(Role Prompting)或"多智能体系统"(Multi-Agent Systems)。 **具体实践**: - 让单个 AI"编写代码"可能只能做得中等水平 - 但如果分配: - 一个 AI 担任"架构师"规划代码 - 一个 AI 担任"工程师"编写代码 - 一个 AI 担任"评论家"审查代码 - 结果会呈指数级提升 **技术原理**: 这些人设不仅仅是戏剧效果,它们是归纳偏置。它们约束了搜索空间。就像采用"严格编辑"的人设帮助作家删减废话一样,给 AI 分配"调试器"的角色会迫使它寻找错误,而不仅仅是生成文本。 **Advisor 模型**: Advisor 模型作为元思考者。它们不直接执行任务,而是监控其他 Agent,标记风险,指导决策。在编码中,Advisor 可能警告架构师设计有风险,或引导工程师远离易错代码。通过提供这种高级监督,Advisor 让 Agent 能够专注于即时任务,同时保持长期目标,使多智能体系统更具战略性。 ```mermaid graph TB subgraph 多智能体系统 A[架构师] -->|规划| B[工程师] B -->|编写| C[代码] D[评论家] -->|审查| C E[Advisor] -->|监控| A E -->|指导| B E -->|风险评估| D end C -->|输出| F[高质量解决方案] ```  ## 2. 技术细节 ### A. 上下文窗口管理 LLM 的上下文窗口是其有效注意力范围,类似于人类的工作记忆。当尝试在一个呼吸中解决 50 步的编码问题时,它会失败。 **解决方案**: 1. 草稿纸机制:在执行前写计划 2. 内存缓冲区:存储事实供后续使用 3. 外部化内部状态:将状态卸载到数字纸上 ### B. 推理循环机制 推理不是即时的,而是一个过程。Agent 遵循循环:行动/写作 -> 推理 -> 重复。这个循环允许: - 将复杂问题分解为可管理的部分 - 自我质疑和验证 - 迭代改进 ### C. 多智能体协作 不同角色的 Agent 协作可以产生指数级的质量提升: - 角色不仅仅是戏剧效果,而是归纳偏置 - 约束搜索空间,提高输出质量 - Advisor 模型提供元认知层面的监督 ## 3. 未来发展方向 ### A. 通用工作流程 文章提出,可能我们只是发现了利用基于模式匹配的原始智能的最佳方式:一个简单的通用工作流程: 1. 写下来 2. 讨论/尝试 3. 检查工作 这些步骤可能提供了维持推理所需的最小脚手架,形成了思维的核心机制。 ### B. 形式化方法的作用 Lamport 对 Guindon 的推论:"数学是自然界展示我们的写作有多草率的方式。" 数学填补了散文留下的漏洞。写作对思维的作用,数学对写作也起同样的作用。这可能是符号 AI 和形式方法变得重要的地方。 - 编写规范已经能磨炼思维 - 将其形式化可以再次磨炼它 - 使推理尽可能精确和可靠 # 四、影响分析 ## 1. 行业影响 ### A. AI Agent 设计趋势 2025 年确实是 Agent 之年,行业从"对话型 AI"转向"行动型 AI"。这种转变带来了: - 更复杂的应用场景 - 更高的可靠性要求 - 更多的工程创新 ### B. 技术方向 这篇文章揭示了一个有趣的观察:最有效的 AI 技术往往与人类最有效的学习方法相似。这可能暗示: - 通用智能的核心机制是通用的 - 简单的习惯比复杂的算法更重要 - 外部化推理是扩展智能的关键 ## 2. 对 AI 研究的启示 ### A. 简约性原则 三大核心习惯都极其简单,但效果非凡。这提示研究者: - 不要过度复杂化 Agent 架构 - 基础机制比花哨功能更重要 - 外部化和循环是关键 ### B. 形式化验证的价值 文章最后提到形式方法的重要性,这预示着: - 符号 AI 可能与神经网络结合 - 形式验证可以提高 Agent 的可靠性 - 数学规范将成为 Agent 开发的重要部分 # 五、各方反应 ## 1. 作者观点 Murat Demirbas 是 MongoDB Research 的首席研究科学家,前 AWS 员工,前纽约州立大学布法罗分校教授。他的观察来自于分布式系统、数据库、云计算、形式方法和神经符号 AI 的工作经验。 他认为: - AI Agent 的工程技巧与人类自我提升建议惊人相似 - 这些习惯"几乎太简单了" - 写作、自我对话、角色扮演是智能的核心 ## 2. 相关阅读 文章提到还有相关文章《Too Close to Our Own Image?》,暗示可能还有更多关于 AI 与人类相似性的思考。 # 六、技术总结 ## 1. 核心洞察表格 | 人类自我提升方法 | AI Agent 实现 | 技术原理 | |-----------------|--------------|---------| | 写笔记 | 草稿纸/内存缓冲区 | 外部化内部状态 | | 思考循环 | 内部独白/推理循环 | 迭代优化 | | 扮演角色 | 角色提示/多智能体 | 归纳偏置 | | 找教练 | Advisor 模型 | 元认知监督 | ## 2. 架构演进图 ```mermaid graph LR A[传统 LLM] -->|输入输出机器| B[对话型 AI] B -->|添加推理循环| C[思考型 Agent] C -->|外部记忆| D[记忆增强 Agent] D -->|多角色协作| E[多智能体系统] E -->|元认知监督| F[战略级 Agent] ```  ## 3. 通用推理框架 文章提出的通用工作流程可以总结为: ```mermaid graph TD A[复杂问题] --> B[写下来] B --> C[分解问题] C --> D[讨论/尝试] D --> E[执行行动] E --> F[检查结果] F -->|不满意| D F -->|满意| G[完成] ```  # 七、结论 这篇文章提出了一个深刻的观察:AI Agent 的核心技术竟然与人类自我提升的经典建议高度一致。写作、自我对话、角色扮演这三大简单习惯,构成了扩展智能的通用机制。 这不仅是技术创新的有趣观察,更是对智能本质的深刻思考。也许,真正的智能不在于复杂的算法,而在于这些简单而强大的基础机制。 正如 Manuel Blum 所说:"没有写作,你只是一个有限自动机。有了写作,你就拥有了图灵机的非凡力量。"这句话既适用于人类,也适用于 AI。 *** ## 参考资料 1. [The Agentic Self: Parallels Between AI and Self-Improvement](https://muratbuffalo.blogspot.com/2026/01/the-agentic-self-parallels-between-ai.html) 最后修改:2026 年 01 月 16 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏