GPT-5.4-mini 和 GPT-5.4-nano API 完全指南:性能、价格与最佳实践(2026)
TL;DR:GPT-5.4-mini 用 30% 的价格拿到旗舰 94% 的编程能力,nano 每天 42 元跑 10 万次分类。国内开发者改一行
base_url就能用。想选旗舰模型?推荐阅读 GPT-5.4 vs Claude Opus 4.6 vs Gemini 3 Pro 横评。
发布背景:为什么需要小模型
2026 年 3 月 17 日,OpenAI 正式发布了 GPT-5.4-mini 和 GPT-5.4-nano——继两周前 GPT-5.4 旗舰模型之后的”轻量级双子星”。
AI 应用正在从”单次对话”走向多 Agent 协作架构。复杂任务由”调度 Agent”拆分成子任务,分发给更小、更快、更便宜的模型并行执行。OpenAI 官方称之为 Sub-Agent 时代:
“这些模型针对延迟直接影响产品体验的工作负载进行了优化:需要实时响应的编程助手、快速完成辅助任务的 Sub-Agent、捕获和解读截图的计算机操控系统,以及实时推理图像的多模态应用。”
GPT-5.4-mini 和 nano 不是旗舰模型的”阉割版”,而是为特定工作负载设计的生产力工具。
GPT-5.4-mini vs nano:核心参数对比
| 参数 | GPT-5.4 | GPT-5.4-mini | GPT-5.4-nano |
|---|---|---|---|
| 输入价格 ($/百万 token) | $2.50 | $0.75 | $0.20 |
| 缓存输入 ($/百万 token) | $0.25 | $0.075 | $0.02 |
| 输出价格 ($/百万 token) | $15.00 | $4.50 | $1.25 |
| 速度 | 基准 | 2x+ 于 GPT-5-mini | 最快 |
| SWE-Bench Pro | 57.7% | 54.4% | 52.4% |
| GPQA Diamond | 93.0% | 88.0% | 82.8% |
| OSWorld-Verified | 75.0% | 72.1% | 39.0% |
| 可用渠道 | API | API + ChatGPT + Codex | 仅 API |
| 最佳场景 | 复杂推理 | 编程/工具调用 | 分类/提取/子任务 |
一个关键数据:GPT-5.4-nano 的 SWE-Bench Pro 得分(52.4%)已经超过了上一代 GPT-5-mini(45.7%)。也就是说,最便宜的新模型比上一代的”中杯”编码能力还强。

基准测试深度解析
SWE-Bench Pro:真实软件工程能力
SWE-Bench Pro 测试模型解决真实 GitHub issue 的能力,是目前最权威的编码基准之一。
| 模型 | SWE-Bench Pro | 对比 |
|---|---|---|
| GPT-5.4 | 57.7% | 旗舰基准 |
| GPT-5.4-mini | 54.4% | 仅差 3.3 个百分点 |
| GPT-5.4-nano | 52.4% | 超越上代 GPT-5-mini |
| GPT-5-mini(上代) | 45.7% | — |
解读:GPT-5.4-mini 的编程能力已经接近旗舰版,只花 30% 的价格就能获得 94% 的编程能力。这对 AI 编程助手产品来说是巨大的成本优化空间。
GPQA Diamond:科学推理
GPQA Diamond 包含物理、化学、生物等高难度研究生级别的科学推理题。
- GPT-5.4-nano 得分 82.8%,已经超过上代 GPT-5-mini 的 81.6%
- GPT-5.4-mini 得分 88.0%,接近旗舰版的 93.0%
OSWorld-Verified:桌面操控
这是一个测试模型”操控电脑”能力的基准——通过截图理解界面并执行操作。
- GPT-5.4-mini 高达 72.1%,几乎追平旗舰版(75.0%)
- GPT-5.4-nano 只有 39.0%,明显落后
结论:如果你的应用需要 Computer Use(如 RPA、UI 自动化测试),选 mini 而非 nano。
定价分析:贵了还是值了?
与上一代相比,GPT-5.4 系列小模型确实涨价了:
| 对比 | 输入涨幅 | 输出涨幅 |
|---|---|---|
| mini vs GPT-5-mini | 3x | 2.25x |
| nano vs GPT-5-nano | 4x | 3.125x |
看到 3-4 倍的涨幅先别慌。我们算一笔账:
实际成本测算
场景 1:AI 客服 Bot(日均 10 万次对话)
假设每次对话平均 800 input tokens + 200 output tokens:
GPT-5.4-nano 日成本:
输入:100,000 × 800 / 1,000,000 × $0.20 = $16.00
输出:100,000 × 200 / 1,000,000 × $1.25 = $25.00
合计:$41.00/天 ≈ ¥300/天
GPT-5.4-mini 日成本:
输入:100,000 × 800 / 1,000,000 × $0.75 = $60.00
输出:100,000 × 200 / 1,000,000 × $4.50 = $90.00
合计:$150.00/天 ≈ ¥1,090/天
场景 2:代码 Review Agent(日均 500 个 PR)
假设每个 PR 平均 5,000 input tokens + 1,000 output tokens:
GPT-5.4-mini 日成本:
输入:500 × 5,000 / 1,000,000 × $0.75 = $1.88
输出:500 × 1,000 / 1,000,000 × $4.50 = $2.25
合计:$4.13/天 ≈ ¥30/天
每天 30 块钱就能跑一个接近旗舰水平的代码审查 Agent,这个 ROI 非常可观。
缓存输入的威力
注意 Cached Input 价格——GPT-5.4-nano 缓存输入只要 $0.02/百万 token。如果你的 System Prompt 或上下文模板是固定的(大多数生产应用都是),实际成本可以再降 90%。
API 调用实战
基础调用
GPT-5.4-mini 和 nano 完全兼容 OpenAI Chat Completions API,model 参数分别是 gpt-5.4-mini 和 gpt-5.4-nano。
Python 示例:
from openai import OpenAI
client = OpenAI(api_key="your-api-key")
# 使用 GPT-5.4-mini
response = client.chat.completions.create(
model="gpt-5.4-mini",
messages=[
{"role": "system", "content": "你是一个资深 Python 开发者,擅长代码审查。"},
{"role": "user", "content": "请审查这段代码的性能问题:\n\nfor i in range(len(data)):\n result.append(process(data[i]))"}
],
temperature=0.3
)
print(response.choices[0].message.content)
Node.js 示例:
import OpenAI from 'openai';
const client = new OpenAI({ apiKey: 'your-api-key' });
const response = await client.chat.completions.create({
model: 'gpt-5.4-nano',
messages: [
{ role: 'system', content: '你是一个 JSON 数据提取助手,只返回结构化数据。' },
{ role: 'user', content: '从以下文本中提取姓名、邮箱和电话:张三,邮箱 [email protected],手机 13800138000' }
],
response_format: { type: 'json_object' }
});
console.log(JSON.parse(response.choices[0].message.content));
Sub-Agent 架构示例
GPT-5.4-mini/nano 最强大的用法是在 Multi-Agent 系统中充当子任务执行者:
from openai import OpenAI
import json
client = OpenAI(api_key="your-api-key")
def orchestrator(task: str) -> dict:
"""主调度 Agent(可以用 GPT-5.4 旗舰版)"""
plan = client.chat.completions.create(
model="gpt-5.4",
messages=[{
"role": "system",
"content": "将用户任务拆解为 3-5 个独立子任务,返回 JSON 数组。"
}, {
"role": "user",
"content": task
}],
response_format={"type": "json_object"}
)
return json.loads(plan.choices[0].message.content)
def sub_agent(subtask: str, model: str = "gpt-5.4-nano") -> str:
"""子任务执行 Agent(用 nano 降低成本)"""
result = client.chat.completions.create(
model=model,
messages=[{
"role": "system",
"content": "简洁高效地完成给定任务,直接输出结果。"
}, {
"role": "user",
"content": subtask
}],
temperature=0.2
)
return result.choices[0].message.content
# 使用示例
subtasks = orchestrator("分析我们产品在 GitHub 上的竞品,整理对比表格")
for task in subtasks.get("tasks", []):
# 简单任务用 nano,复杂任务用 mini
model = "gpt-5.4-mini" if task.get("complexity") == "high" else "gpt-5.4-nano"
result = sub_agent(task["description"], model=model)
print(f"✅ {task['description']}: {result[:100]}...")
这种架构的核心思想:用旗舰模型做决策,用小模型做执行。一个任务的 80% 子步骤都可以用 nano 完成,只有关键决策点才需要 mini 或旗舰版。
Function Calling / Tool Use
GPT-5.4-mini 的工具调用能力是亮点之一,特别适合构建 AI Agent:
tools = [{
"type": "function",
"function": {
"name": "search_database",
"description": "搜索产品数据库",
"parameters": {
"type": "object",
"properties": {
"query": {"type": "string", "description": "搜索关键词"},
"category": {"type": "string", "enum": ["电子产品", "服装", "食品"]},
"max_results": {"type": "integer", "default": 10}
},
"required": ["query"]
}
}
}]
response = client.chat.completions.create(
model="gpt-5.4-mini",
messages=[{"role": "user", "content": "帮我找一下最新的降噪耳机"}],
tools=tools,
tool_choice="auto"
)
五大典型应用场景
1. AI 编程助手(推荐 mini)
GPT-5.4-mini 在 SWE-Bench Pro 上 54.4% 的得分意味着它能处理大多数真实的代码修改任务。对于 OpenClaw、Cursor 等 AI 编程工具来说,用 mini 替换旗舰模型可以把 API 成本砍掉 70% 而几乎不损失质量。
适用任务:代码补全、Bug 修复、代码审查、重构建议、单元测试生成
2. 数据处理流水线(推荐 nano)
nano 的 $0.20/百万 input token 价格使大规模数据处理变得经济可行:
- 文本分类和情感分析
- 结构化数据提取(如从简历中提取字段)
- 日志分析和异常检测
- 批量内容审核
Simon Willison 的实测数据:用 GPT-5.4-nano 描述 76,000 张照片只需 $52.44。
3. 实时多模态应用(推荐 mini)
mini 在 OSWorld-Verified 上 72.1% 的高分证明它能很好地理解屏幕截图和 UI 元素,适合:
- RPA 自动化(读取和操作桌面应用)
- 视觉问答(实时理解摄像头画面)
- 文档 OCR + 理解
4. 客服 / 对话机器人(推荐 nano)
对于意图识别、FAQ 匹配、简单对话等场景,nano 的性价比无与伦比。配合缓存输入($0.02/百万 token),每次对话成本可以低到 不到 0.01 美分。
5. Multi-Agent 系统中的执行层(推荐 nano + mini 混合)
- 调度 Agent:GPT-5.4 旗舰版(负责任务拆解和决策)
- 执行 Agent:GPT-5.4-mini(处理复杂子任务如编程、分析)
- 辅助 Agent:GPT-5.4-nano(处理简单子任务如格式化、分类、摘要)
国内开发者接入方案
GPT-5.4-mini 和 nano 的 API 接口与标准 OpenAI Chat Completions 完全一致,只需要修改 model 参数即可。但对于国内开发者来说,直接访问 OpenAI API 存在网络延迟高、连接不稳定等问题。
方案:通过 Ofox.ai 低延迟接入
Ofox.ai 提供 OpenAI 兼容的 API 网关,部署在阿里云和火山云上,国内访问延迟低于 100ms。
接入步骤:
- 在 ofox.ai 注册并获取 API Key
- 将
base_url指向 Ofox 的 API 端点 - 其他代码完全不变
from openai import OpenAI
# 只需修改 base_url 和 api_key
client = OpenAI(
base_url="https://api.ofox.ai/v1",
api_key="your-ofox-api-key"
)
# 调用方式完全相同
response = client.chat.completions.create(
model="openai/gpt-5.4-mini",
messages=[{"role": "user", "content": "用 Python 写一个快速排序"}]
)
print(response.choices[0].message.content)
// Node.js 同样只需改 baseURL
import OpenAI from 'openai';
const client = new OpenAI({
baseURL: 'https://api.ofox.ai/v1',
apiKey: 'your-ofox-api-key'
});
更多配置细节请参考 Ofox 开发者文档。
与竞品模型横向对比
| 维度 | GPT-5.4-mini | GPT-5.4-nano | Gemini 3.1 Flash-Lite | Claude 4.5 Haiku | DeepSeek V3 |
|---|---|---|---|---|---|
| 输入价格 | $0.75 | $0.20 | $0.25 | $0.80 | $0.27 |
| 输出价格 | $4.50 | $1.25 | $1.50 | $4.00 | $1.10 |
| 编程能力 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| 推理能力 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| 多模态 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ |
| 速度 | 快 | 极快 | 极快 | 快 | 快 |
| 最佳场景 | 全能型 | 高并发/低成本 | 多模态 | 代码/对话 | 中文场景 |
关键发现:
- GPT-5.4-nano($0.20 input)比 Gemini 3.1 Flash-Lite($0.25 input)还便宜,但编码能力更强
- GPT-5.4-mini 在编程任务上领先所有同价位模型
- 如果主要做中文文本处理,DeepSeek V3 在价格上更有优势
选型建议:通过多模型聚合平台,可以在不同任务上灵活切换模型,不被任何一家锁定。
常见问题(FAQ)
Q: GPT-5.4-mini 和 nano 支持 Function Calling 吗?
支持。两个模型都支持 Function Calling(Tool Use),包括并行函数调用和 Structured Outputs。mini 的工具调用准确率更高,推荐在 Agent 场景中使用。
Q: 已有的 GPT-5-mini 代码需要改什么?
只需将 model 参数从 "gpt-5-mini" 改为 "gpt-5.4-mini" 或 "gpt-5.4-nano"。API 接口完全兼容,无需其他改动。
Q: mini 和 nano 怎么选?
对质量敏感的用 mini,对成本敏感的用 nano。面向用户的输出(客服回复、内容生成)用 mini;后台处理(分类、提取、日志分析)用 nano;Agent 执行层简单任务 nano,复杂任务 mini。
Q: GPT-5.4-nano 比 GPT-5-mini 强吗?
编码上是的——nano 的 SWE-Bench Pro(52.4%)超过了 GPT-5-mini(45.7%)。但在桌面操控(OSWorld)上 nano 只有 39.0%,不如 GPT-5-mini 的 42.0%。
Q: 国内调用延迟高吗?
直连 OpenAI 延迟较高。通过国内 API 网关接入(如 Ofox.ai),TTFB 可控制在 500ms 以内。批量处理场景还可以用 Batch API 优化。
总结
GPT-5.4-mini 和 nano 是为 Sub-Agent 架构设计的执行模型。选型建议:
- 评估模型分层:80% 的 API 调用可以用 mini/nano 完成,从旗舰版迁移可大幅降低成本
- 尝试 Sub-Agent 架构:复杂任务拆解为子任务,用 nano 并行执行
- 利用缓存输入:固定 System Prompt 的场景,cached input 可再省 90% 输入成本


