Loading... # AI 疲劳是真实的存在:一位 AI 基础设施构建者的行业反思 # 一、新闻概述 ## 1. 标题 AI 疲劳是真实的存在:一位 AI 基础设施构建者的行业反思 ## 2. 发布时间 2026 年 2 月 12 日 ## 3. 来源 Siddhant Khare 个人博客 - 作者系 OpenFGA 核心维护者、AI 代理基础设施构建者 # 二、核心内容 ## 1. 事件摘要 ### A. 主要内容 AI 行业正经历一个被集体忽视的问题:AI 工具让工程师产出更多代码,但同时也带来了前所未有的精神消耗。一位深度参与 AI 基础设施建设的核心开发者分享了自身经历,揭示了 AI 时代的隐性成本。 ### B. 核心亮点 - AI 确实让单个任务更快,但这导致任务数量膨胀而非工作减少 - 工程师角色从「创造者」转变为「审查者」 - AI 代理的非确定性本质带来持续的认知负荷 - 错失恐惧(FOMO)导致工具持续切换的恶性循环 ## 2. 关键信息 ### A. 作者背景 - OpenFGA(CNCF 孵化项目)核心维护者 - 构建 agentic-authz 代理授权系统 - 开发 Distill 上下文去重工具 - 多个 MCP 服务器构建者 ### B. 核心论点 AI 降低生产成本,但提高协调、审查和决策成本——而这些成本完全由人类承担。 ### C. 涉及领域 AI 代理基础设施、开发者工具、认知科学、工程可持续性 # 三、详细报道 ## 1. 生产率悖论 ### A. 核心问题 ```mermaid graph LR A[AI 工具] -->|降低| B[单个任务时间] B -->|任务变快| C[任务数量增加] C -->|期望提高| D[产出速度] D -->|但提高| E[上下文切换成本] E -->|结果| F[认知负荷增加] ```  ### B. 详细分析 AI 确实让单个任务更快。原本需要 3 小时的任务现在只需 45 分钟:起草设计文档、搭建新服务、编写测试用例、研究陌生 API。 但问题随之而来:当每个任务耗时减少时,你不会做更少任务——你会做更多任务。你的能力看似扩展,工作量就会膨胀并填满它。 **具体表现**: - 以前:一整天专注一个设计问题。纸上画图、洗澡时思考、散步找灵感 - 现在:一天可能接触六个不同问题,每个「只需一小时用 AI」 上下文切换对人类大脑的成本是残酷的。AI 不会在问题之间感到疲惫,但你会。 ## 2. 角色转变:从创造者到审查者 ### A. 职责变化 ```mermaid graph TB subgraph AI 时代前 A1[思考问题] --> A2[编写代码] A2 --> A3[测试] A3 --> A4[交付] A1 -.->|创造者角色| B1[充能状态] end subgraph AI 时代后 C1[编写提示词] --> C2[等待输出] C2 --> C3[评估输出] C3 --> C4[判断正确性] C4 --> C5[判断安全性] C5 --> C6[修复问题部分] C6 --> C7[重复] C1 -.->|审查者角色| D1[消耗状态] end ```  ### B. 核心差异 **创造性工作**:带来心流状态,令人充能 **评估性工作**:导致决策疲劳,令人消耗 ### C. AI 代码的审查负担 AI 生成的代码需要比人类编写的代码更仔细的审查: | 维度 | 同事代码 | AI 代码 | |------|-----------|---------| | 可信度 | 了解其模式、优势、盲点 | 每行都值得怀疑 | | 审查方式 | 信任部分、关注部分 | 逐行审查 | | 风险特征 | 可预期 | 可能在生产中、高负载下、凌晨 3 点出现微妙错误 | ## 3. 非确定性问题 ### A. 确定性契约的崩塌 工程师的职业生涯建立在确定性之上:相同输入、相同输出。这是调试的契约,是推理系统的基础。 AI 打破了这个契约。 **真实案例**: - 周一:提示词完美运行,生成干净的结构化代码 - 周二:相同提示词、相似端点,输出结构不同、错误处理模式不同、引入了未要求的依赖 没有堆栈跟踪,没有日志说明「模型今天决定走不同方向」。这种无法溯源的不确定性产生了持续的低级别焦虑。 ### B. 应对策略 成功应对的工程师将 AI 输出视为「聪明但不可靠的实习生草稿」: - 预期重写 30% - 为重写预留时间 - 不因输出错误而沮丧——预期它有用,而非正确 ## 4. FOMO 跑步机 ### A. 工具爆炸时间线 ```mermaid timeline title AI 工具生态爆炸(2025-2026) 2025 Q1 : Claude Code 发布子代理<br>技能系统 2025 Q2 : OpenAI Codex CLI<br>GitHub 添加 MCP 注册表 2025 Q3 : Agent SDK 发布<br>AutoGen/CrewAI 流行 2025 Q4 : A2A 协议宣布<br>Swarm 框架出现 2026 Q1 : Kimi K2.5 发布<br>100 并行代理编排 2026-02 : OpenClaw 技能市场<br>一周内发现 400+ 恶意技能 ```  ### B. 恶性循环模式 ``` 周六下午:设置新 AI 工具 ↓ 周日:建立基本工作流 ↓ 周三:新工具发布,声称「更好」 ↓ 焦虑感产生 ↓ 下周周末:迁移到新工具 ↓ 旧工具搁置,5% 改进无法测量 ``` ### C. 知识衰减问题 - 花费两周构建精细的提示工程工作流 - 三个月后:模型更新,最佳实践改变 - 结果:一半模板比简单单行命令效果更差 - 结论:两周不是投资,是消耗 **框架迁移周期**:LangChain → CrewAI → AutoGen → 自定义编排(一年内) ### D. 作者策略转变 不再追逐每个新工具,而是深耕底层基础设施: - 工具来来去去,它们解决的问题不变 - 上下文效率、代理授权、审计跟踪、运行时安全——无论本月流行什么框架,这些都是持久问题 - 在不会变动的层上构建 ## 5. 提示词螺旋陷阱 ### A. 陷阱定义 尝试让 AI 生成特定内容的过程: - 第一次输出:70% 正确 - 第二次:75% 正确,但破坏了第一次正确的部分 - 第三次:80% 正确,但结构变了 - 第四次:45 分钟过去了,而你自己从头写只需 20 分钟 ### B. 应对规则 **三次尝试原则**:如果 AI 在三次提示内无法达到 70% 可用,就自己编写。这个单一规则比任何提示技巧都节省时间。 ## 6. 思维萎缩 ### A. 症状 设计评审会议上,需要在白板上推理并发问题。没有笔记本电脑,没有 AI,只有自己和马克笔。然后你挣扎了——不是因为不懂概念,而是因为几个月没有锻炼那块肌肉。 ### B. 类比:GPS 与导航 - GPS 之前:建立心理地图,了解城市,可以推理路线 - 多年 GPS 后:没有 GPS 无法导航 - 技能因为停止使用而萎缩 ### C. 应对策略 每天第一小时不使用 AI: - 在纸上思考 - 手绘架构图 - 用慢速方式推理问题 - 感觉低效,但保持思维敏锐 ## 7. 比较陷阱 ### A. 社交媒体现实 - 没有人发布「花 3 小时试图让 Claude 理解我的数据库架构,最终放弃并手写迁移」 - 没有人发布「AI 生成的代码导致生产事故,因为它悄悄吞掉了错误」 - 没有人发布「我很累」 ### B. 不可复现性 AI 技能很难衡量: - 输出取决于模型、提示词、上下文、温度、月相 - 别人的令人印象深刻的演示可能在你的机器和代码库上无法复现 # 四、作者的有效策略 ## 1. 时间盒 AI 会话 不再以开放式方式使用 AI。设置计时器——任务 30 分钟。计时器响起时,提交现有内容或切换到自己编写。这同时防止提示词螺旋和完美主义陷阱。 ## 2. 分离 AI 时间与思考时间 上午用于思考,下午用于 AI 辅助执行。不是僵化规则,但默认结构意味着大脑以正确比例获得锻炼和协助。 ## 3. 接受 AI 的 70% 不再试图获得完美输出。70% 可用就是标准。其余自己修复。这种接受是工作流中 AI 相关挫折的最大单一缓解因素。 ## 4. 对炒作周期保持战略性 跟踪 AI 行业是因为为其构建基础设施,但停止在每个新工具发布的周采用它。使用一个主要编码助手并深度了解它。当工具在数月而非数天内证明自己时再评估。 ## 5. 记录 AI 帮助和不帮助的地方 两周记录日志:任务、是否使用 AI、时间花费、结果满意度。数据揭示: - AI 在样板代码、文档、测试生成方面节省大量时间 - AI 在架构决策、复杂调试、需要代码库深度上下文的任何事情上浪费时间 ## 6. 不审查 AI 产生的一切 如果使用 AI 生成大量代码,你无法以相同的严谨程度审查每一行。将审查精力集中在最重要的部分——安全边界、数据处理、错误路径——其余依赖自动化测试和静态分析。非关键代码中的某些粗糙度是可以接受的。 # 五、可持续性问题 ## 1. 调速器移除 AI 之前,一天的产出有上限——由打字速度、思考速度、查找时间设定。这有时令人沮丧,但也是调速器。你无法工作致死,因为工作本身施加了限制。 AI 移除了调速器。现在唯一的限制是你的认知耐力。大多数人直到超过极限才知道自己的认知极限。 ## 2. 作者的倦怠经历 2025 年末倦怠: - 不是戏剧性的——没有辞职或崩溃 - 只是停止关心 - 代码审查变成橡皮图章 - 设计决策变成「无论 AI 建议什么」 - 产出比以往任何时候都多,感觉比以往任何时候都少 ## 3. 恢复过程 恢复不是关于少用 AI,而是关于不同地使用 AI:有边界、有意图、有理解。 **讽刺的是**:倦怠期间是一些最好的工作发生的时期。当停止尝试使用每个 AI 工具并开始思考实际什么被破坏时,第一次清楚地看到了问题。 # 六、真正的技能 AI 时代的真正技能不是提示工程,不是知道使用哪个模型,不是拥有完美工作流。 **真正的技能是知道何时停止。** 知道何时 AI 输出足够好。知道何时自己编写。知道何时关闭笔记本电脑。知道何时边际改进不值得认知成本。知道你的大脑是有限资源,保护它不是懒惰——是工程学。 我们为可持续性优化系统。我们添加断路器。我们实现背压。我们设计优雅降级。我们应该对自己做同样的事情。 AI 是我用过的最强大的工具。也是最消耗的工具。两者都是真的。在这个时代茁壮成长的工程师不会是使用 AI 最多的人。他们将是使用它最明智的人。 如果你累了,不是因为你做错了。是因为这真的很难。工具是新的,模式仍在形成,行业假装更多输出等于更多价值。并非如此。可持续的输出才等于价值。 *** ## 参考资料 1. [AI Fatigue Is Real - Siddhant Khare](https://siddhantkhare.com/writing/ai-fatigue-is-real) 最后修改:2026 年 02 月 12 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏