本文档面向 API 用户,帮助你快速上手 CodexForge API 服务、了解用量配额和排查常见问题。
最后更新:2026-03-05
只需三步即可开始使用 CodexForge API:
sk-xxxx)。curl http://你的服务器地址:8082/v1/chat/completions \
-H "Authorization: Bearer sk-你的密钥" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4.1-mini",
"messages": [{"role": "user", "content": "Hello!"}]
}'
| 客户端 / 工具 | 配置方式 |
|---|---|
| OpenAI Python SDK | openai.base_url = "http://服务器:8082/v1"openai.api_key = "sk-你的密钥" |
| Cursor / Windsurf | 设置中填入 API Base URL 和 Key |
| ChatGPT-Next-Web | 设置 → 自定义 API → 填入地址和密钥 |
| 任何 OpenAI 兼容客户端 | 将 API 地址改为 http://服务器:8082,填入 Key 即可 |
用户门户(/user)是你的个人控制台,用 API Key 登录即可查看用量和配额。
访问 http://服务器地址:8082/user,输入你的 API Key 即可登录。
详细展示各维度的用量和剩余配额,包括:
显示当前 Key 的速率限制配置:
柱状图展示近 30 天的每日 Token 使用趋势,帮助你了解使用规律。
列出你的最近 API 调用记录,包括时间、模型、路径、状态码、Token 用量和耗时。支持分页浏览。
所有 API 请求必须在 HTTP Header 中携带 API Key:
Authorization: Bearer sk-你的密钥
| 端点 | 方法 | 说明 |
|---|---|---|
/v1/chat/completions | POST | 聊天补全(标准 OpenAI 格式),支持流式和非流式 |
/v1/responses | POST | Codex Responses API(OpenAI 新格式) |
/v1/models | GET | 获取可用模型列表 |
{
"model": "gpt-4.1-mini",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
"stream": false,
"max_tokens": 1000
}
设置 "stream": true 即可获得 SSE(Server-Sent Events)流式响应,与 OpenAI 官方格式完全一致。
响应格式与 OpenAI 官方 API 完全一致,包括 choices、usage 等字段。你的现有代码无需任何修改。
{
"id": "chatcmpl-xxx",
"object": "chat.completion",
"model": "gpt-4.1-mini",
"choices": [{
"index": 0,
"message": {"role": "assistant", "content": "Hello! How can I help you?"},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 8,
"total_tokens": 20
}
}
通过 GET /v1/models 可查询当前可用的模型列表。
curl http://服务器地址:8082/v1/models \ -H "Authorization: Bearer sk-你的密钥"
管理员可随时调整可用模型。如果你请求的模型不在列表中或被禁止访问,将收到 403 错误。
/v1/models 返回的是管理员配置的完整模型列表,但实际调用时只能使用白名单中的模型。每个 API Key 可能有独立的配额限制,用量在每次请求完成后自动扣减。
| 模式 | 说明 | 超限行为 |
|---|---|---|
| none | 无限制,不扣费不限量 | — |
| balance | 余额模式,按模型定价扣减余额(USD) | 余额耗尽返回 429 |
| token_total | 总 Token 限额 | 累计 Token 达上限返回 429 |
| token_io | 输入/输出 Token 分别限额 | 任一维度超限返回 429 |
| hybrid | 混合模式(余额 + Token 双限) | 任一维度超限返回 429 |
配额用量可能会按周期自动重置:
你可以在用户门户中查看重置周期和下次重置时间。
除了配额(用多少),还可能有速率限制(用多快):
max_tokens 的上限,超限返回 400API 返回标准 JSON 错误格式,与 OpenAI 官方一致:
{"error": {"message": "...", "type": "...", "code": "..."}}
| HTTP 状态码 | error.code | 说明 | 解决方案 |
|---|---|---|---|
| 401 | missing_api_key | 请求未携带 API Key | 在 Header 中添加 Authorization: Bearer sk-xxx |
| 401 | invalid_api_key | API Key 不存在或格式错误 | 检查 Key 是否正确,联系管理员确认 |
| 401 | api_key_expired | API Key 已过期 | 联系管理员续期或获取新 Key |
| 403 | api_key_disabled | API Key 被禁用 | 联系管理员启用 |
| 403 | model_not_allowed | 无权使用该模型 | 检查模型名称,或联系管理员调整模型白名单 |
| HTTP 状态码 | error.code | 说明 | 解决方案 |
|---|---|---|---|
| 429 | quota_exceeded | 配额已用尽(余额/Token) | 联系管理员充值,或等待重置周期 |
| 429 | rate_limit_rpm | 每分钟请求数超限 | 降低请求频率,等待 1 分钟 |
| 429 | rate_limit_rpd | 每日请求数超限 | 等待次日重置 |
| 429 | concurrent_limit | 并发请求数超限 | 减少同时请求数,等待进行中的请求完成 |
| 400 | max_tokens_exceeded | 单次请求 max_tokens 超限 | 降低 max_tokens 参数值 |
| HTTP 状态码 | error.code | 说明 | 解决方案 |
|---|---|---|---|
| 503 | no_available_accounts | 服务暂时不可用 | 等待片刻后重试,如持续出现请联系管理员 |
| 503 | upstream_unavailable | 上游服务不可用 | 等待片刻后重试 |
CodexForge 兼容 OpenAI API 格式,支持所有语言的 OpenAI SDK,包括 Python、Node.js、Go、Java、Rust 等。也可直接通过 HTTP 请求调用。
可以。只要工具支持自定义 OpenAI API 地址(Base URL),就可以使用 CodexForge。在设置中将 API 地址改为 CodexForge 的地址,填入你的 Key 即可。
完全支持。设置 "stream": true 即可获得与 OpenAI 完全一致的 SSE 流式响应。
429 表示你触发了某种限制,可能是:
在用户门户中可以查看当前的配额和速率使用情况。
503 表示服务暂时不可用,通常是因为上游服务临时故障。请等待几秒后重试。如果持续出现,请联系管理员。
取决于管理员为你的 Key 设置的重置周期:
具体设置可在用户门户中查看。
登录用户门户(/user),首页即显示余额、Token 用量和配额进度条。
默认为 http://服务器IP:8082。如果管理员配置了域名和 HTTPS,请使用管理员提供的地址。兼容路径格式:
http://服务器:8082/v1/chat/completionshttp://服务器:8082/v1/responseshttp://服务器:8082/v1/models