Codex Proxy:国内用户代理配置完全指南——墨涩网

Codex CLI 是 OpenAI 推出的终端 AI 编程助手,搭载 GPT-5.5 编程特化模型,能理解整个代码仓库、自动写代码、跑测试、修 Bug。但国内用户面临一个现实问题:Codex 默认连接 api.openai.com,国内网络直连不了。

解决方案的核心思路就一个:把请求地址从 OpenAI 官方改成一个你能访问的兼容网关。这就是所谓的 "Codex Proxy"。

Codex 的配置体系

Codex CLI 的配置目录在 ~/.codex/(Windows 是 %USERPROFILE%\.codex\),核心配置文件是 config.toml。所有代理方案的本质都是修改这个文件里的 base_url

支持的安装方式:

  • npm 全局安装:npm install -g @openai/codex(推荐,版本同步最快)
  • Homebrew:brew install --cask codex(macOS)
  • 桌面 App:从 Microsoft Store 或官网下载
  • GitHub Releases:下载对应平台的二进制包

注意:Node.js 版本要求 ≥ 22(官方实测最低 22.22.0),Node 20 及以下会报解析错误。

方案一:第三方 API 网关(最简单)

原理很简单:别人搭好了兼容 OpenAI API 的服务器,你只需要改配置指向它就行。常见的有 ofox.ai、OpenRouter、aicode007 等。

config.toml 配置示例(以 ofox.ai 为例)

# 默认模型
model = "openai/gpt-5.3-codex"

# 默认 Provider
model_provider = "ofoxai"

# Provider 定义
[model_providers.ofoxai]
name = "OfoxAI"
base_url = "https://api.ofox.ai/v1"
env_key = "OFOXAI_API_KEY"
wire_api = "responses"

重要:wire_api = "responses" 这一行必须写上。2026 年起 Codex CLI 已经移除了对 "chat" 模式的支持,写 chat 会直接报错拒绝发请求。

设置环境变量

# macOS / Linux(~/.zshrc 或 ~/.bashrc)
export OFOXAI_API_KEY="sk-你的API密钥"
source ~/.zshrc

# Windows PowerShell(永久生效)
[Environment]::SetEnvironmentVariable("OFOXAI_API_KEY", "sk-你的API密钥", "User")

验证

mkdir codex-test && cd codex-test
codex

进入交互模式后输入 /status,如果 Model provider 显示为网关地址,说明配置成功。

方案二:自建 Nginx 反向代理

如果你有一台海外 VPS,可以自己搭反向代理。好处是完全自己掌控,稳定可靠。

server {
    listen 443 ssl;
    server_name your-domain.com;

    ssl_certificate /path/to/cert.pem;
    ssl_certificate_key /path/to/key.pem;

    location / {
        proxy_pass https://api.openai.com;
        proxy_ssl_server_name on;
        proxy_set_header Host api.openai.com;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Authorization $http_authorization;
    }
}

然后在 config.toml 中指向你的域名:

model = "openai/gpt-5.3-codex"
model_provider = "custom"

[model_providers.custom]
name = "MyProxy"
base_url = "https://your-domain.com/v1"
env_key = "OPENAI_API_KEY"
wire_api = "responses"

方案三:Cloudflare Workers(免费方案)

Cloudflare Workers 每天提供 10 万次免费请求,个人用绰绰有余。部署一个 Worker 做透明代理:

export default {
  async fetch(request) {
    const url = new URL(request.url);
    url.hostname = 'api.openai.com';
    url.protocol = 'https:';
    return fetch(new Request(url, request));
  }
}

部署后把 Worker 域名填到 config.tomlbase_url 里。注意:Cloudflare Workers 对 WebSocket 支持有限,Codex 的长连接可能会受影响。

方案四:OpenRelay 本地代理网关

OpenRelay 是一个开源的本地 AI 代理网关,不仅能代理 Codex,还能自动发现你电脑上散落的各种 AI 配额(Claude、Groq、Kiro 等),聚合成一个统一端点。

安装后只需设置两个环境变量:

export OPENAI_BASE_URL=http://localhost:18765
export OPENAI_API_KEY=unused

OpenRelay 的好处是支持模型组自动故障转移——当一个后端配额耗尽,自动切换到下一个,保证 Codex 不中断。

常见报错排查

Error: 401 Unauthorized

  • 99% 是环境变量没加载。新开终端跑 echo $OFOXAI_API_KEY,输出空就 source 一下配置文件
  • Key 拼错也会 401,去控制台对一遍

Error: 404 - Endpoint not found

  • base_url 末尾多了 / 或者漏了 /v1
  • wire_api 配成了已弃用的 "chat",改成 "responses"

Error: model not found

  • 模型 ID 大小写错误。注意格式:openai/gpt-5.3-codex(小写 + 短横线 + 点)
  • 该模型没在你的账户可用列表里,换一个试试

四种方案对比

第三方网关:最简单,改个配置就行,适合快速上手。但依赖第三方服务。
Nginx 自建:最稳定,完全自己掌控。需要海外 VPS + 域名 + SSL。
Cloudflare Workers:免费白嫖,全球节点速度快。长连接可能不稳定。
OpenRelay:功能最强,支持多配额聚合和自动故障转移。适合重度 AI 用户。

总结

不管选哪种方案,核心操作都是一样的:修改 ~/.codex/config.toml 里的 base_url,让 Codex CLI 的请求不再直连 api.openai.com。搞定这一步,Codex 就能在国内网络环境下正常工作了。

建议先用第三方网关跑通验证,确认 Codex 本身没问题后,再根据需求选择更稳定的长期方案。

上一篇 Codex + OpenRelay:国内用户玩转 OpenAI Codex 的最佳方案——墨涩网
下一篇 Codex + Claude Code:两大终端编程助手配合使用指南——墨涩网