Claude Code 用户必看!你可能在浪费 80% 的积分
强烈建议所有 Claude Code 用户立即检查:你安装的 MCP 插件可能在悄悄吃掉 70k+ 上下文。本文揭秘 Claude Code 的"成本黑洞",以及两个 1 分钟就能完成的优化操作,让代码质量提升的同时,积分消耗直接减半。
Claude Code CLI 以其强大的 Agent 能力和工具调用功能,成为了很多开发者的日常工具。但在实际使用中,我们团队发现了一个有趣的需求:能否在保留 Claude Code 的 Agent 能力的同时,使用推理能力更强的 Codex 模型?
这个想法源于一次实际项目。我们在重构一个有 80+ 数据库迁移文件的老项目时,需要分析复杂的外键依赖关系。Claude 模型的工具调用能力很强,可以自动读取和分析文件,但在处理复杂依赖推理时显得力不从心。
于是我们开始探索:能不能让 Claude Code CLI 使用 Codex 模型?
Claude Code CLI 基于 Anthropic API 协议,而 Codex 使用 OpenAI API 协议。两者在请求格式、响应结构、流式输出等方面都存在差异。
我们实现了一个协议转换层来解决这个问题:
请求转换
响应适配
模型命名策略 为了让 Claude Code CLI 无缝识别,我们设计了特殊的命名格式:
sonnet-[模型名]-[推理预算]
例如:
sonnet-gpt-5-high 对应 GPT-5 高推理预算sonnet-gpt-5-codex-medium 对应 Codex 中等推理预算这样 CLI 会认为这是 Anthropic 的模型变体,实际请求被路由到 OpenAI 后端。
Claude Code CLI 的核心能力在于工具调用。我们需要确保切换到 Codex 后,这些能力不受影响。
关键实现点:
测试表明,转换后的 Codex 模型可以正常使用 Claude Code 的所有工具:文件读写、命令执行、代码搜索等。
回到最初的问题:80 个迁移文件的依赖分析。
使用 sonnet-gpt-5-codex-high:
/model sonnet-gpt-5-codex-high
分析这些迁移文件的依赖关系,生成正确的执行顺序
Codex 的深度推理能力体现在:
而 Claude Code 的 Agent 能力负责:
在优化一个慢查询时,我们观察到两种能力的协同:
Agent 能力(Claude Code):
推理能力(Codex):
最终查询次数从 30+ 降到 3 次,响应时间明显改善。
对一个 2000+ 行的 Service 类进行重构:
Codex 展现了更强的架构思维:
Claude Code 则负责:
Codex 提供了不同级别的推理预算,适用于不同场景:
High(高推理预算)
Medium(中等推理预算)
Low(低推理预算)
Minimal(最小推理预算)
我们的建议是根据任务复杂度动态切换。
1. 能力互补
2. 无缝切换
/model 命令即可切换3. 灵活配置
成本控制 高推理预算的成本相对较高。建议:
模型特性差异
上下文管理 切换模型后建议:
UniVibe 已经为所有用户开放了这个功能。配置很简单:
export ANTHROPIC_BASE_URL="https://api.univibe.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="your-api-key"
claude
/model sonnet-gpt-5-codex-high
GPT-5 系列:
sonnet-gpt-5-high - 高推理预算sonnet-gpt-5-medium - 中等推理预算sonnet-gpt-5-low - 低推理预算sonnet-gpt-5-minimal - 最小推理预算GPT-5 Codex 系列(专为编程优化):
sonnet-gpt-5-codex-high - 高推理预算sonnet-gpt-5-codex-medium - 中等推理预算sonnet-gpt-5-codex-low - 低推理预算这次尝试验证了一个有价值的方向:不同 AI 模型可以在保持各自优势的同时协同工作。
未来我们计划:
对于开发者来说,工具的本质是提升效率。Claude Code CLI + Codex 的组合提供了一个新的可能性:在一个熟悉的界面中,根据任务特点灵活选择最合适的 AI 能力。
更多技术细节和使用指南,请参考:
无需多重付费,使用 Claude Code、Cursor、OpenAI CodeX 等全部工具