Codex CLI 是 OpenAI 推出的终端 AI 编程助手,搭载 GPT-5.5 编程特化模型,能理解整个代码仓库、自动写代码、跑测试、修 Bug。但国内用户面临一个现实问题:Codex 默认连接 api.openai.com,国内网络直连不了。
解决方案的核心思路就一个:把请求地址从 OpenAI 官方改成一个你能访问的兼容网关。这就是所谓的 "Codex Proxy"。
Codex 的配置体系
Codex CLI 的配置目录在 ~/.codex/(Windows 是 %USERPROFILE%\.codex\),核心配置文件是 config.toml。所有代理方案的本质都是修改这个文件里的 base_url。
支持的安装方式:
- npm 全局安装:
npm install -g @openai/codex(推荐,版本同步最快) - Homebrew:
brew install --cask codex(macOS) - 桌面 App:从 Microsoft Store 或官网下载
- GitHub Releases:下载对应平台的二进制包
注意:Node.js 版本要求 ≥ 22(官方实测最低 22.22.0),Node 20 及以下会报解析错误。
方案一:第三方 API 网关(最简单)
原理很简单:别人搭好了兼容 OpenAI API 的服务器,你只需要改配置指向它就行。常见的有 ofox.ai、OpenRouter、aicode007 等。
config.toml 配置示例(以 ofox.ai 为例)
# 默认模型
model = "openai/gpt-5.3-codex"
# 默认 Provider
model_provider = "ofoxai"
# Provider 定义
[model_providers.ofoxai]
name = "OfoxAI"
base_url = "https://api.ofox.ai/v1"
env_key = "OFOXAI_API_KEY"
wire_api = "responses"
重要:wire_api = "responses" 这一行必须写上。2026 年起 Codex CLI 已经移除了对 "chat" 模式的支持,写 chat 会直接报错拒绝发请求。
设置环境变量
# macOS / Linux(~/.zshrc 或 ~/.bashrc)
export OFOXAI_API_KEY="sk-你的API密钥"
source ~/.zshrc
# Windows PowerShell(永久生效)
[Environment]::SetEnvironmentVariable("OFOXAI_API_KEY", "sk-你的API密钥", "User")
验证
mkdir codex-test && cd codex-test
codex
进入交互模式后输入 /status,如果 Model provider 显示为网关地址,说明配置成功。
方案二:自建 Nginx 反向代理
如果你有一台海外 VPS,可以自己搭反向代理。好处是完全自己掌控,稳定可靠。
server {
listen 443 ssl;
server_name your-domain.com;
ssl_certificate /path/to/cert.pem;
ssl_certificate_key /path/to/key.pem;
location / {
proxy_pass https://api.openai.com;
proxy_ssl_server_name on;
proxy_set_header Host api.openai.com;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header Authorization $http_authorization;
}
}
然后在 config.toml 中指向你的域名:
model = "openai/gpt-5.3-codex"
model_provider = "custom"
[model_providers.custom]
name = "MyProxy"
base_url = "https://your-domain.com/v1"
env_key = "OPENAI_API_KEY"
wire_api = "responses"
方案三:Cloudflare Workers(免费方案)
Cloudflare Workers 每天提供 10 万次免费请求,个人用绰绰有余。部署一个 Worker 做透明代理:
export default {
async fetch(request) {
const url = new URL(request.url);
url.hostname = 'api.openai.com';
url.protocol = 'https:';
return fetch(new Request(url, request));
}
}
部署后把 Worker 域名填到 config.toml 的 base_url 里。注意:Cloudflare Workers 对 WebSocket 支持有限,Codex 的长连接可能会受影响。
方案四:OpenRelay 本地代理网关
OpenRelay 是一个开源的本地 AI 代理网关,不仅能代理 Codex,还能自动发现你电脑上散落的各种 AI 配额(Claude、Groq、Kiro 等),聚合成一个统一端点。
安装后只需设置两个环境变量:
export OPENAI_BASE_URL=http://localhost:18765
export OPENAI_API_KEY=unused
OpenRelay 的好处是支持模型组自动故障转移——当一个后端配额耗尽,自动切换到下一个,保证 Codex 不中断。
常见报错排查
Error: 401 Unauthorized
- 99% 是环境变量没加载。新开终端跑
echo $OFOXAI_API_KEY,输出空就 source 一下配置文件 - Key 拼错也会 401,去控制台对一遍
Error: 404 - Endpoint not found
base_url末尾多了/或者漏了/v1wire_api配成了已弃用的"chat",改成"responses"
Error: model not found
- 模型 ID 大小写错误。注意格式:
openai/gpt-5.3-codex(小写 + 短横线 + 点) - 该模型没在你的账户可用列表里,换一个试试
四种方案对比
第三方网关:最简单,改个配置就行,适合快速上手。但依赖第三方服务。
Nginx 自建:最稳定,完全自己掌控。需要海外 VPS + 域名 + SSL。
Cloudflare Workers:免费白嫖,全球节点速度快。长连接可能不稳定。
OpenRelay:功能最强,支持多配额聚合和自动故障转移。适合重度 AI 用户。
总结
不管选哪种方案,核心操作都是一样的:修改 ~/.codex/config.toml 里的 base_url,让 Codex CLI 的请求不再直连 api.openai.com。搞定这一步,Codex 就能在国内网络环境下正常工作了。
建议先用第三方网关跑通验证,确认 Codex 本身没问题后,再根据需求选择更稳定的长期方案。