Loading... # AI 疲劳是真实的 # 一、新闻概述 ## 1. 标题 AI 疲劳是真实的:一位 AI 基础设施工程师的坦诚反思 ## 2. 发布时间 2026 年 2 月 ## 3. 来源 Siddhant Khare 个人博客 # 二、核心内容 ## 1. 事件摘要 ### A. 主要内容 Siddhant Khare 作为 AI 代理基础设施领域的核心开发者(OpenFGA 维护者、agentic-authz 和 Distill 等工具的作者),坦诚分享了深度使用 AI 工具后的职业倦怠经历。 ### B. 核心观点 - AI 确实提高了单个任务的效率,但总体认知负担反而增加 - 工程师从「创造者」变成了「审核者」,这种角色转换具有心理消耗 - 技术迭代速度过快导致持续的学习焦虑和工具迁移疲劳 - 过度依赖 AI 可能导致独立思考能力的退化 ## 2. 关键信息 ### A. 作者背景 - OpenFGA(CNCF 孵化项目)核心维护者 - 构建 agentic-authz 代理授权系统 - 开发 Distill 上下文去重工具 - 深度参与 MCP 服务器生态建设 ### B. 核心矛盾 AI 工具降低生产成本,却提高了协调、审核和决策的成本,而这些成本完全由人类承担。 ## 3. 背景介绍 ### A. 行业现状 技术行业普遍存在 AI 焦虑:担心被淘汰、害怕跟不上新技术、社交媒体上的成功案例带来比较压力。 ### B. 问题根源 AI 工具去除了自然速度限制,导致工作无限扩展,唯一的上限变成了人的认知耐力。 # 三、详细报道 ## 1. 主要问题分析 ### A. 效率悖论 ```mermaid graph LR A[AI 工具] -->|降低| B[单任务时间] B -->|增加| C[任务数量] C -->|导致| D[上下文切换] D -->|消耗| E[认知资源] A -.避免.-> F[自然速度限制] ```  **核心矛盾**: - 单个任务从 3 小时缩短到 45 分钟 - 但每天处理的任务从 1 个增加到 6 个 - 上下文切换的成本由人脑承担 ### B. 角色转换困境 **工作模式变化**: | 时期 | 工作模式 | 心理状态 | |------|---------|---------| | AI 前 | 思考问题、编写代码、测试、发布 | 创造者、心流体验 | | AI 后 | 提示、等待、评估、决策、修改 | 审核者、决策疲劳 | **AI 代码的特殊挑战**: - 每一行代码都需要怀疑 - 看起来自信、能编译、能通过测试,但可能在生产环境中出问题 - 无法像人类代码那样「信任模式、关注盲点」 ### C. 确定性崩溃问题 工程师的职业训练建立在「相同输入产生相同输出」的确定性基础上,而 AI 打破了这个契约。 ```mermaid graph TD A[周一提示词] -->|产生| B[良好结构代码] C[周二相同提示词] -->|产生| D[不同结构代码] D -->|引入| E[不需要的依赖] F[问题] -->|无堆栈跟踪| G[无法调试] G -->|结果| H[持续焦虑] ```  **根本矛盾**:与概率性系统协作,但大脑是为确定性系统设计的。 ### D. 技术迭代疲劳 **2025-2026 年 AI 工具爆发**: - Claude Code:子代理、技能、Agent SDK、Claude Cowork - OpenAI:Codex CLI、GPT-5.3-Codex(自我编码的模型) - Google:Gemini CLI、A2A 协议 - GitHub:MCP 注册表 - 代理框架:CrewAI、AutoGen、LangGraph、MetaGPT、Swarm **工具迁移成本**: - 周末搭建新工具 → 周三发现「更好的工具」 → 下周末再次迁移 - 每次迁移花费一个周末,带来 5% 的不可测量改进 - LangChain → CrewAI → AutoGen → 自定义编排(一年内多次迁移) ### E. 提示词螺旋陷阱 **典型场景**: 1. 第一次输出:70% 正确 2. 优化提示词:75% 正确,但破坏了之前正确的部分 3. 第三次尝试:80% 正确,但结构变了 4. 第四次尝试:已经花了 45 分钟,而从头写只需要 20 分钟 **作者经验法则**:3 次尝试原则 - 如果 3 次提示无法达到 70% 可用性,直接手动编写 - 这个规则节省的时间超过任何提示词技巧 ### F. 思维能力退化 **类比:GPS 与导航能力** - GPS 之前:建立心理地图,理解城市结构 - 多年 GPS 后:无法独立导航 **AI 与工程思维** - 持续将「初稿思考」外包给 AI - 导致从零开始思考的能力退化 - 挣扎是学习发生的地方,困惑是理解形成的过程 ### G. 社交媒体比较陷阱 **现实 vs 展示**: - 展示:我用 AI 在 2 小时内构建了整个应用 - 现实:花 3 小时让 Claude 理解数据库模式,最终放弃手动编写迁移 **AI 技能难以衡量**: - 输出取决于模型、提示词、上下文、温度、相位 - 令人印象深刻的演示可能在你的环境中无法复现 ## 2. 作者的应对策略 ### A. 时间盒限制 - 不再开放式使用 AI - 为任务设置计时器(如 30 分钟) - 计时器到点:发布当前版本或切换手动编写 ### B. 分离思考时间与 AI 时间 - 上午:思考时间(无 AI) - 下午:AI 辅助执行 - 保持大脑锻炼与辅助的正确比例 ### C. 接受 70% 标准 - 停止追求完美输出 - 70% 可用即可接受 - 这是减少 AI 相关挫折感的最大因素 ### D. 战略性应对炒作周期 - 追踪 AI 生态以理解方向,而非采用每个新工具 - 深度使用一个主要编码助手 - 等待新工具经过数月验证后再评估 ### E. 记录 AI 的有效性 - 记录两周数据:任务、是否使用 AI、时间、满意度 - 发现:AI 在样板代码、文档、测试生成方面节省时间 - 发现:AI 在架构决策、复杂调试、深度上下文方面浪费时间 ### F. 选择性审核 - 不审核 AI 产生的所有代码 - 重点关注:安全边界、数据处理、错误路径 - 依赖自动化测试和静态分析处理其余部分 - 非关键代码的粗糙度可以接受 ## 3. 技术启示 ### A. 基础设施层面的重要性 - 工具来来去去,解决的问题不会改变 - 上下文效率、代理授权、审计跟踪、运行时安全是持久问题 - 作者的构建决策: - agentic-authz 基于 OpenFGA,而非绑定特定代理框架 - Distill 工作在上下文层,而非提示词层 ### B. 代理安全的人本意义 - 如果无法审核所有 AI 输出,需要系统约束代理能力 - 最小权限访问、范围令牌、审计跟踪 - 减少对「AI 是否做了危险事情」的担忧 - 这不仅是安全问题,更是人类可持续性问题 # 四、影响分析 ## 1. 行业影响 ### A. 燃烧out 问题加剧 - 技术行业在 AI 之前就有燃烧out 问题 - AI 移除了保护我们的自然速度限制 - 唯一的极限变成了认知耐力,而大多数人在超过极限之前不知道自己的极限 ### B. 生产力与价值认知的脱节 - 行业假装更多输出等于更多价值 - 实际上可持续的产出才有价值 - 需要重新定义成功指标 ## 2. 个人影响 ### A. 工程师面临的选择 - 跟上每一个新工具(导致疲劳) - 选择被淘汰(导致焦虑) - 作者建议:在基础设施层面深入,而非追逐表面工具 ### B. 技能转型需求 - 从完美主义转向「从 imperfect 输出中提取价值」 - 从创造转向审核和判断 - 从确定性思维转向概率性协作 ## 3. 技术趋势 ### A. 可持续性工具需求 - 上下文去重(Distill) - 代理授权(agentic-authz) - 审计跟踪(AgentTrace) - 这些工具解决人类可持续性问题,不仅是技术问题 ### B. 代理生态成熟 - 从无限制 API 密钥访问转向细粒度权限控制 - 从黑盒操作转向可审计的工作流 - 从追逐新框架转向构建持久基础设施 # 五、各方反应 ## 1. 作者立场 - 仍然每天在这个领域构建 - 比以往任何时候都更致力于 AI - 但按照自己的条件、以自己的节奏行事 - 构建重要的事情,而非追逐趋势 ## 2. 核心建议 **真正的 AI 时代技能**: - 不是提示词工程 - 不是知道使用哪个模型 - 不是拥有完美的工作流 **而是知道何时停止**: - 知道 AI 输出何时足够好 - 知道何时自己编写 - 知道何时关闭笔记本电脑 - 知道何时边际改进不值得认知成本 ## 3. 长期视角 在 AI 时代蓬勃发展的工程师不会是那些使用 AI 最多的人,而是那些最明智地使用 AI 的人。 # 六、相关链接 ## 1. 作者作品 - OpenFGA(CNCF 孵化项目) - agentic-authz:代理授权系统 - Distill:确定性上下文去重工具 - AgentTrace:代理审计跟踪工具(开发中) ## 2. 相关主题 - 代理安全与授权 - 上下文工程 - AI 基础设施 - 人类与 AI 协作的可持续性 *** ## 参考资料 1. [AI Fatigue Is Real - Siddhant Khare](https://siddhantkhare.com/writing/ai-fatigue-is-real) 最后修改:2026 年 02 月 09 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏