Loading... # 外包思考:LLM 对人类认知能力影响的深度分析 # 一、新闻概述 ## 1. 标题 外包思考:大型语言模型对人类认知能力的潜在影响 ## 2. 发布时间 2026 年 1 月 30 日 ## 3. 来源 Erik Johannes Husom 个人博客 # 二、核心内容 ## 1. 事件摘要 ### A. 主要内容 这是一篇关于大型语言模型(LLM)对人类认知能力影响的深度分析文章。作者从认知科学、哲学和社会学角度,探讨了"外包思考"这一现象的利弊得失。 ### B. 核心亮点 - 挑战"认知总量谬误"(The lump of cognition fallacy) - 分析 LLM 在个人交流、知识构建和体验价值三个方面的影响 - 提出"思考的内容很重要"这一关键观点 - 探讨人类价值观与技术效率的平衡 ## 2. 关键信息 ### A. 涉及技术 大型语言模型(LLM)、聊天机器人、生成式 AI ### B. 核心问题 - 将思考任务外包给 AI 是否会导致人类认知能力退化 - 哪些活动适合使用 LLM,哪些不适合 - 技术效率与人类价值之间的权衡 ### C. 作者立场 保守但务实:认为过度依赖 LLM 会削弱人类能力,但承认某些场景下的合理用途 # 三、详细报道 ## 1. 背景介绍 ### A. "认知总量谬误" Andy Masley 在其文章中提出了"认知总量谬误"的概念,挑战"思考总量是固定的"这一观念。他认为"思考往往会导致更多需要思考的事情",因此不必担心让机器为我们思考。 ### B. 作者的回应 作者认同不必担心"耗尽有限的思考池",但指出另一个谬误:只要思考"某些事情"就可以,而不在乎思考"什么"。这种观点忽略了不同认知任务对人类发展的不同影响。 ## 2. 三大核心争议领域 ### A. 个人交流与写作 **问题本质**: LLM 会改变我们的表达方式,进而改变我们的思维过程。语言不仅仅是信息的载体,它本身就是意义。 **作者观点**: - 文字选择和句式结构承载大量意义 - 直接交流会受到语言模型"污染"的损害 - 人际交流不仅关乎信息交换,还关乎关系建立 **关键警示**: "大多数情况下,我们无法将意义与其表达方式分离。这本质上就是语言——词语就是意义。改变措辞就会改变信息。" ### B. 有价值的体验 **商业化展示的问题**: 主流 LLM 提供商热衷于展示聊天机器人如何: - 规划假期 - 组织聚会 - 为亲友创建个性化信息 **深层反思**: 作者认为这反映了现代社会的核心问题:我们倾向于将一切都视为"苦差事"。 "人类在几乎所有事情上都擅长找到不满,可能是因为现代社会的一种期望:我们应该能够做任何我们想做的事情,在任何我们想做的时候——或者更重要的是,我们应该能够避免做我们不想做的事情。" ### C. 知识构建 **常见误解**: 有了互联网,无需再记忆信息,只需在线访问即可。 **作者反驳**: "获取和记忆知识是学习使用知识的巨大组成部分。天真地认为我们可以像计算机一样,将存储单元与处理单元分离开来,是错误的。" **爵士钢琴学习案例**: 作者通过学习爵士钢琴的经验指出: - 优秀的即兴演奏不是来自仅仅练习即兴 - 需要反复演奏现有曲目,大量学习,将和弦进行和主题融入血液 - 这种练习建立了对"什么声音好听"的直觉 - 旧旋律的片段被组合成新音乐 "在这个意义上,我们更像机器学习模型而不是计算机,但不要错误地认为这就是我们真正的样子。" ## 3. "延伸心灵"理论批判 ### A. 该理论的主张 "我们的大部分认知不仅限于头骨和大脑,它也发生在我们的物理环境中,所以我们定义的很多思想也可以说存在于我们周围的物理对象中。" "发生在你大脑神经元中还是手机电路中,似乎是任意的。" ### B. 作者的反驳 "这一陈述简直是荒谬的,即使在上下文中阅读也是如此。某事发生在大脑而不是计算机上,这造成了天壤之别。人类不仅仅是信息处理器。" **具体例子**: "我真的记得我朋友的生日,还是让聊天机器人自动发送祝贺信息,这重要吗?是的,这很重要,因为在第一种情况下,你有意识地在记住和思考你的朋友,巩固你在这段关系中的位置。" ### C. 对类比的反驳 原文作者将"丢失手机"与"切除部分大脑"相提并论。作者认为: "丢失手机和丢失部分大脑在可能性和后果方面都是截然不同的两件事。上述陈述不仅严重低估了我们大脑中发生的过程,而且将切除部分大脑比作丢失手机,表明论证的前提严重脱离现实。" ## 4. 核心论点:思考的内容很重要 ```mermaid graph TD A[将任务外包给 LLM] --> B{任务类型} B --> C[简单重复性任务] B --> D[复杂认知任务] B --> E[个人交流表达] B --> F[价值体验活动] C --> G[可能适合外包] D --> H[失去知识构建机会] E --> I[失去个人声音] F --> J[失去生活体验] H --> K[削弱项目所有权] H --> L[削弱高层决策能力] I --> M[人际关系表面化] J --> N[生活意义缺失] style G fill:#90EE90 style H fill:#FFB6C1 style I fill:#FFB6C1 style J fill:#FFB6C1 style K fill:#FFB6C1 style L fill:#FFB6C1 style M fill:#FFB6C1 style N fill:#FFB6C1 ```   **作者观点**: "我们必须承认,所有类型的思考都会对我们产生影响,即使是那些无聊乏味的类型。消除某些认知任务的需要,与承担新型认知任务一样,都会对我们产生积极或消极的影响。" ## 5. 实际观察的影响 ### A. 负面现象 - 各类申请(实习、研究提案、职位)数量激增,但质量下降 - 学生向聊天机器人寻求协作任务帮助,导致思想多样性丧失 - 文字通胀,但实质内容空洞 ### B. 门槛与规则的矛盾 "聊天机器人可能降低了参与的门槛,但竞争的基本规则没有改变。要想更擅长写作,你需要写作。思考也是如此。" ### C. 功能性文本的例外 并非所有文本都受到相同影响。作者称之为"功能性文本"的类别: - 计算机代码 - 纯信息传递(如食谱、信息标志、文档) 这些类别不存在相同的问题。但有人类作者面向人类受众的文本,具有特定的角色期望,并建立在特定的信任基础之上。 ```mermaid graph LR A[文本类型] --> B[功能性文本] A --> C[个人表达文本] B --> D[代码] B --> E[文档] B --> F[食谱] B --> G[信息标志] C --> H[个人交流] C --> I[创意写作] C --> J[公共辩论] C --> K[求职申请] D --> L[适合 LLM] E --> L F --> L G --> L H --> M[不适合 LLM] I --> M J --> M K --> M style L fill:#90EE90 style M fill:#FFB6C1 ```   # 四、技术细节 ## 1. 当前 LLM 的局限性 作者指出,即使是翻译任务,当前最先进的 LLM 也存在问题: "如果当前最先进的 LLM 在生成挪威文本方面非常糟糕,我会更支持将 LLM 用于翻译。我只能希望对其他非英语语言来说情况更好,或者它会随着时间的推移而改善。" ## 2. 界面设计的挑战 "如果我们真的将 LLM 视为帮助人们提高写作能力的工具,我们需要比当今的聊天机器人更精心考虑的界面。" **问题所在**: 从旧式自动更正到生成式语言模型的步骤太大了。 在拼写或语法帮助和让模型基本上为你写作之间,界线异常模糊。 # 五、影响分析 ## 1. 教育系统的影响 ### A. 需要根本性变革 教育系统将需要根本性的变革来应对 LLM 的普及。 ### B. 学习过程的改变 - 学生依赖聊天机器人完成任务 - 失去独立思考和创新的机会 - 思想多样性丧失 ## 2. 社会交流的影响 ### A. 信任危机 "那个信任的侵蚀将是人类的损失。" ### B. 期待转变 如果未来的书面交流大部分由 AI 模型共同创作,我们需要意识到这一点,并相应地调整我们的期望。 ### C. 透明度需求 一些人开始披露他们在写作中使用了 AI,作者认为这是更好地理解我们使用 LLM 的好一步。 ## 3. 个人发展的影响 ### A. 认知技能退化风险 将某些任务外包很容易导致某种精神萎缩。 ### B. 自主性丧失 "他们很快变成了替代品而不是帮助,剥夺我们发现我们自己声音的机会,以及我们在独立站立时可以成为和变成谁的机会。" ```mermaid graph TB A[LLM 使用场景] --> B[工具性使用] A --> C[依赖性使用] B --> D[提高效率] B --> E[保留人类主导权] C --> F[思维外包] C --> G[声音同质化] C --> H[能力萎缩] D --> I[正面影响] E --> I F --> J[负面影响] G --> J H --> J I --> K[增强人类能力] J --> L[削弱人类能力] style I fill:#90EE90 style J fill:#FFB6C1 style K fill:#90EE90 style L fill:#FFB6C1 ```   # 六、各方观点 ## 1. Andy Masley 的观点 - 提出"认知总量谬误"概念 - 认为思考会带来更多需要思考的事情 - 支持"延伸心灵"理论 - 对 LLM 持相对积极态度 ## 2. Erik Johannes Husom 的观点 - 认同不必担心耗尽思考池 - 但强调思考的内容很重要 - 批判"延伸心灵"理论过度简化 - 对 LLM 在个人交流和表达中的使用持保守态度 - 担心人类能力和价值的丧失 ## 3. 共识领域 尽管存在根本性分歧,两人在以下方面达成一致: ### A. 应该避免外包认知的情况: 1. 建立复杂的隐性知识,这些知识是你未来导航世界所需要的 2. 是对他人的关怀和在场表达 3. 本身就是一种有价值的体验 4. 是欺骗性伪造 5. 专注于一个至关重要的问题,而且你不完全信任你外包的对象 ### B. 分歧在于: 以上类别包含的活动数量,特别是其中三个类别。 # 七、结论与展望 ## 1. 面临的挑战 "我们在弄清楚聊天机器人长期适合什么方面面临着重大挑战。个人交流可能永远改变(也就是说,可能不再保持个人性质),教育系统将需要根本性的变革,我们需要更仔细地反思生活中哪些体验实际上重要。" ## 2. 技术的价值 "关于这种新型技术真正令人兴奋的是,它迫使我们面对关于我们的人性和价值观的问题。许多以前理论的哲学问题正变得与我们的日常生活息息相关。" ## 3. 核心论点 "我试图提出的一个基本观点是,我们选择使用聊天机器人的方式不仅关乎效率和认知后果;它关乎我们希望我们的生活和社会成为什么样子。" ## 4. 呼吁行动 "我无法告诉其他人他们应该做什么,但我挑战每个人考虑他们希望建立社区的价值,并让这些价值与研究告诉我们的内容一起被权衡。" ## 5. 务实建议 ### A. 实用主义场景 LLM 可能适用于: - 与官僚主义作斗争的人 - 提交投诉和处理保险公司 - 需要完成功能性文本任务 ### B. 保守建议 "我唯一的建议是,在依赖它之前,确保你真的需要它。" ### C. 长期视角 务实的态度可能是让文字通胀随之而来,在尘埃落定后再清点存货。但保守观点源于相信我们将失去的东西比我们获得的东西更有价值。虽然 LLM 在短期内可能有用,但使用它们是在治疗症状而不是问题。 ```mermaid graph TD A[面对 LLM 技术] --> B{使用决策} B --> C{是否需要?} C --> D[真正需要] C --> E[可以使用] D --> F{任务类型} E --> G[避免使用] F --> H[功能性任务] F --> I[个人表达] F --> J[知识构建] F --> K[价值体验] H --> L[谨慎使用] I --> M[避免外包] J --> M K --> M L --> N[保持人类主导权] M --> O[保留人类核心价值] N --> P[增强而非削弱人类] O --> P style P fill:#90EE90 style G fill:#FFB6C1 style M fill:#FFB6C1 ```   # 八、技术意义 这篇文章提出了关于 AI 技术发展的重要思考: 1. **技术效率不是唯一标准**:人类价值和个人成长同样重要 2. **认知外包的边界**:需要明确哪些任务适合外包,哪些需要保留 3. **设计哲学的反思**:当前 LLM 界面设计模糊了工具与替代的界限 4. **社会层面的影响**:教育、交流、信任等社会结构需要重新审视 文章的价值在于将技术讨论从"能否做到"提升到"应该做到"的伦理和哲学层面,为 AI 时代的个人和社会选择提供了重要思考框架。 *** ## 参考资料 1. [Outsourcing thinking – Erik Johannes Husom](https://erikjohannes.no/posts/20260130-outsourcing-thinking/index.html) 2. [The lump of cognition fallacy - Andy Masley](https://andymasley.substack.com/p/the-lump-of-cognition-fallacy) 3. [Rapport fra test av språkroboter 2025 - Språkrådet](https://sprakradet.no/wp-content/uploads/Rapport-fra-test-av-sprakroboter-2025.pdf) 最后修改:2026 年 02 月 02 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏