Loading... # Ollama 兼容 Anthropic API,支持 Claude Code 使用开源模型 # 一、新闻概述 ## 1. 标题 Ollama v0.14.0 发布:兼容 Anthropic Messages API,Claude Code 可使用开源模型 ## 2. 发布时间 2026 年 1 月 16 日 ## 3. 来源 Ollama 官方博客 # 二、核心内容 ## 1. 事件摘要 ### A. 主要内容 Ollama 宣布从 v0.14.0 版本开始兼容 Anthropic Messages API,使得开发者可以使用 Claude Code 等 Anthropic 官方工具来运行本地开源模型或 Ollama 云服务模型。 ### B. 核心亮点 - 兼容 Anthropic Messages API 标准 - Claude Code 可直接使用 Ollama 模型 - 支持本地和云端两种部署方式 - 完全兼容现有 Anthropic SDK ## 2. 关键信息 ### A. 版本号 Ollama v0.14.0 及以上版本 ### B. 重要数据 - 支持功能:消息对话、流式输出、系统提示、工具调用、扩展思考、视觉输入 - 推荐上下文长度:至少 32K tokens ### C. 涉及产品 - Claude Code:Anthropic 的终端 AI 编程助手 - Ollama:本地和云端大模型运行平台 - Anthropic SDK:Python 和 JavaScript SDK ## 3. 背景介绍 ### A. 前置版本 Ollama 之前主要用于运行开源大模型,通过自己的 API 接口提供服务。 ### B. 相关上下文 Anthropic 提供 Messages API 作为与 Claude 模型交互的标准接口,Claude Code 是基于此 API 构建的终端编程工具。 # 三、详细报道 ## 1. 主要内容 ### A. 功能更新 - API 兼容性:完全兼容 Anthropic Messages API - Claude Code 集成:通过环境变量配置即可使用 - 双模式支持:本地模型和云端模型均可使用 - SDK 兼容:现有使用 Anthropic SDK 的应用无需修改代码逻辑 ### B. 技术改进 - 工具调用支持:模型可调用外部工具和系统 - 视觉能力:支持图像输入处理 - 扩展思考:支持模型的思考过程输出 - 流式输出:实时返回生成内容 ### C. 兼容性说明 - API 兼容层完全兼容 Anthropic Messages API 规范 - 现有 Anthropic SDK 应用只需更改 base_url ## 2. 技术细节 ### A. 架构变化 ```mermaid graph LR subgraph Claude_Code CC[Claude Code] end subgraph Anthropic_SDK PY[Python SDK] JS[JavaScript SDK] end CC -->|API Calls| Ollama[Ollama API] PY -->|base_url| Ollama JS -->|baseURL| Ollama Ollama --> Local[本地模型] Ollama --> Cloud[云端模型] ```  ### B. 配置方式 Claude Code 配置: ```bash export ANTHROPIC_AUTH_TOKEN=ollama export ANTHROPIC_BASE_URL=http://localhost:11434 ``` SDK 配置(Python): ```python client = anthropic.Anthropic( base_url='http://localhost:11434', api_key='ollama' ) ``` ### C. 支持的功能特性 - 消息和多轮对话 - 流式输出 - 系统提示 - 工具调用/函数调用 - 扩展思考 - 视觉输入 ## 3. 数据与事实 ### A. 推荐模型 本地模型: - gpt-oss:20b - qwen3-coder 云端模型: - glm-4.7:cloud - minimax-m2.1:cloud ### B. 技术要求 - 上下文长度:建议至少 32K tokens - 云端模型自动运行完整上下文长度 # 四、影响分析 ## 1. 行业影响 ### A. 技术趋势 - API 标准化:通过兼容主流 API 降低迁移成本 - 本地 AI:推动本地大模型与云端服务的统一体验 - 开源生态:使开源模型更易接入成熟工具链 ### B. 竞争格局 - 对比 OpenAI:提供类似 OpenAI API 的兼容性策略 - 对比 LM Studio:通过标准 API 兼容获得更广泛工具支持 ## 2. 用户影响 ### A. 现有用户 - Claude Code 用户:可直接使用本地开源模型,降低 API 调用成本 - Ollama 用户:获得更多工具选择,可使用 Claude Code 等 Anthropic 生态工具 ### B. 潜在用户 - 关注隐私的开发者:可在本地使用 Claude Code 处理敏感代码 - 成本敏感用户:使用本地模型替代付费 API ### C. 迁移成本 - 配置简单:仅需设置环境变量 - 代码兼容:Anthropic SDK 应用只需更改 base_url ## 3. 技术趋势 ### A. 技术方向 - API 兼容层成为模型服务平台的标配 - 本地和云端模型的统一调用体验 - 开源模型与商业工具的深度集成 ### B. 生态影响 - 降低开源模型使用门槛 - 促进 AI 工具的互操作性 - 推动本地 AI 部署的普及 # 五、各方反应 ## 1. 官方回应 Ollama 官方强调这一更新使得用户可以在本地机器上运行 Claude Code,或通过 ollama.com 连接云端模型。 ## 2. 业内评价 ### A. 技术意义 - API 标准化有助于降低厂商锁定 - 本地 AI 与云端服务的融合趋势明显 ### B. 社区反馈 - 开发者欢迎这一兼容性更新 - 关注本地模型的性能表现 # 六、相关链接 ## 1. 官方公告 - Ollama 博客:Claude Code with Anthropic API compatibility - Anthropic Messages API 文档 ## 2. 技术文档 - Claude Code 指南 - Anthropic API 兼容性文档 - 上下文长度配置说明 ## 3. 相关资源 - Ollama 下载页面 - Anthropic SDK(Python/JavaScript) *** ## 参考资料 1. [Claude Code with Anthropic API compatibility](https://ollama.com/blog/claude) 2. [Anthropic Messages API Documentation](https://docs.anthropic.com/en/api/messages) 3. [Claude Code Documentation](https://docs.anthropic.com/en/docs/claude-code) 最后修改:2026 年 01 月 23 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏