Loading... # 美国军方高层向 Anthropic 施压要求放宽 Claude 安全限制 # 一、新闻概述 ## 1. 标题 美国军方高层向 Anthropic 施压要求放宽 Claude 安全限制 ## 2. 发布时间 2026 年 2 月 24 日 ## 3. 来源 The Guardian # 二、核心内容 ## 1. 事件摘要 ### A. 主要内容 美国国防部长 Pete Hegseth 与 Anthropic 首席执行官 Dario Amodei 会面,就军方如何使用 Claude 大语言模型展开谈判。军方要求 Anthropic 放宽安全限制,否则将面临处罚。 ### B. 核心亮点 - Anthropic 自诩为最注重安全的 AI 公司 - 五角大楼威胁若不服从将终止巨额合同 - 其他 AI 公司如 xAI 和 OpenAI 已同意政府条款 ## 2. 关键信息 ### A. 涉及人物 - Pete Hegseth:美国国防部长 - Dario Amodei:Anthropic 首席执行官 - Emil Michael:五角大楼首席技术官 ### B. 合同金额 价值最高 2 亿美元 ### C. 截止时间 要求 Anthropic 在周五下班前同意军方条款 ## 3. 背景介绍 ### A. 前置背景 美国国防部于 2025 年 7 月与多家主要 AI 公司签署合同,包括 Anthropic、Google 和 OpenAI。 ### B. 相关上下文 在此之前,只有 Anthropic 的 Claude 被允许用于军方机密系统。本周一,五角大楼与 Elon Musk 的 xAI 签署协议,允许军方在机密系统中使用其聊天机器人。 # 三、详细报道 ## 1. 争议焦点 ### A. 双方分歧 - 美国军方希望无限制使用 Claude 的能力 - Anthropic 抵制将产品用于大规模监控或自主武器系统 ### B. Anthropic 立场 Anthropic 一直反对将其产品用于无需人类输入即可杀人的自主武器系统。国防部已将 Claude 整合到其操作中,但威胁要因 Anthropic 设置的障碍而终止合作关系。 ## 2. 政府压力 ### A. 威胁措施 国防部已威胁对 Anthropic 采取惩罚性措施,包括: - 取消与公司的巨额合同 - 将其标记为供应链风险 ### B. 其他公司态度 xAI 和 OpenAI 已同意政府对 AI 使用的条款。一名国防部官员表示,OpenAI 已允许其模型用于所有合法用途。 ## 3. 政治背景 ### A. 行政立场 特朗普政府大力推动将 AI 整合到军事中,特朗普多次誓言美国将在全球 AI 军备竞赛中获胜。 ### B. Anthropic 政治倾向 Amodei 在 2024 年美国总统竞选期间反对特朗普,Anthropic 聘请了多名前拜登工作人员。华尔街日报报道称,这是亲特朗普的风险投资公司今年早些时候撤回对 Anthropic 投资的一个促成因素。 ## 4. 近期事件 有报道称,美国军方在上个月使用 Claude 协助抓获委内瑞拉领导人 Nicolas Maduro。 # 四、技术细节 ### A. 军事 AI 应用 五角大楼近年来投入数十亿美元追求 AI 驱动的技术,包括: - 无人驾驶无人机 - 自动瞄准系统 ### B. 伦理争议 这些技术的进步引发了关于在致命力量方面应向 AI 让渡多少决策权的伦理问题。在乌克兰的战斗中已出现无需人类控制的致命半自主无人机。 ```mermaid graph TD A[国防部与 AI 公司] --> B[Anthropic] A --> C[OpenAI] A --> D[xAI] A --> E[Google] B --> F{安全限制谈判} F --> G[自主武器系统] F --> H[大规模监控] F --> I[机密系统使用] C --> J[已同意政府条款] D --> J B --> K[抵制中] L[威胁措施] --> M[取消合同] L --> N[供应链风险标记] ```   # 五、影响分析 ## 1. 行业影响 ### A. 竞争格局 - Anthropic 的安全立场可能使其在与军方的合作中处于劣势 - 其他 AI 公司因更灵活的政策而获得军方青睐 ### B. 技术趋势 军方对 AI 的依赖程度不断增加,自主武器系统的开发加速 ## 2. 用户影响 ### A. 军方用户 - 可能失去 Claude 在机密系统中的使用权限 - 转向使用 xAI、OpenAI 等更配合的公司产品 ### B. 商业用户 - Anthropic 若失去军方合同,可能影响其商业发展 - 其他 AI 公司可能获得更多市场份额 ## 3. 伦理影响 ### A. 安全标准 - 军方要求可能迫使 AI 公司降低安全标准 - 对整个 AI 行业的安全文化造成冲击 ### B. 军用 AI - 自主武器系统的使用可能增加 - 人类在军事决策中的角色被削弱 # 六、各方反应 ## 1. 政府立场 五角大楼首席技术官 Emil Michael 公开呼吁 Anthropic 跨越卢比孔河并同意政府条款。他表示,如果有人想从美国战争部赚钱,安全护栏应该为他们的用例进行调整,只要是合法的。 ## 2. Anthropic 立场 Amodei 长期以来一直主张加强对 AI 的监管,其公司支持一个倡导对人工智能采取更强安全措施的政治行动委员会。 ## 3. 业内评价 华尔街日报报道指出,Anthropic 聘请前拜登工作人员是亲特朗普风险投资公司撤资的因素之一。 *** ## 参考资料 1. [US military leaders pressure Anthropic to bend Claude safeguards | The Guardian](https://www.theguardian.com/us-news/2026/feb/24/anthropic-claude-military-ai) 最后修改:2026 年 02 月 27 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏