GPT-5 全面解析与 DeepSeek 实战对比:推理、工具调用、上下文与成本
GPT-5 发布,统一系统与推理能力显著升级:400K 上下文、minimal reasoning、verbosity、新的 Custom Tools 与并行工具链。本文以工程师视角对比 GPT-5 与 DeepSeek,并给出可复制的实战方案与选型策略。文末有萌新推荐书籍,不容错过!
GPT-5 发布,统一系统与推理能力显著升级:400K 上下文、minimal reasoning、verbosity、新的 Custom Tools 与并行工具链。本文以工程师视角对比 GPT-5 与 DeepSeek,并给出可复制的实战方案与选型策略。文末有萌新推荐书籍,不容错过!

目录
2. 开发者新特性:minimal reasoning、verbosity 与 Custom Tools
2.1 reasoning_effort:更细粒度地控制“思考时长”
2.2 verbosity:用参数而非提示词控制“答案长短”
2.3 Custom Tools:摆脱“只会 JSON”的束缚
3. DeepSeek 家族速览:V3 与 R1 的工程画像
4. GPT-5 vs DeepSeek:四维对比(能力/工具/上下文/价格)
6. 实战一(GPT‑5):从代码审查到补丁提交的自动化代理
7. 实战二(DeepSeek):本地 RAG + 可视化推理链
与 GPT-4o 相比,GPT-5 的亲切感有所减弱,不必要的表情符号也更少,后续的互动也更加细腻周到。与其说是“与 AI 对话”,不如说更像是在与一位拥有博士级智力水平的乐于助人的朋友聊天。
1. GPT-5 是什么
GPT-5 是一个“统一系统”(Unified System),包含快模型(面向日常响应)、深度推理模型(GPT‑5 thinking,面向复杂任务)与实时路由器(按任务难度/上下文/工具需求/显式意图自动切换)。ChatGPT 端默认由系统自动调度;API 端给到推理模型族(gpt-5 / gpt-5-mini / gpt-5-nano)与非推理聊天模型 gpt-5-chat-latest。
关键点清单:
-
可用性:所有 ChatGPT 用户可用,Plus 使用上限更高;Pro 额外可开启 GPT‑5 pro(更深的并行推理)。
-
上下文:API 端最大 272k 输入 + 128k 推理/输出 ≈ 400k 总上下文,适合超长文档检索与多轮工具编排。
-
评测层面:在 AIME’25、SWE‑bench Verified、Aider polyglot、MMMU、HealthBench 等多项评测中刷新纪录,尤其在编码与代理化任务上提升显著。
-
系统目标:更低幻觉率、更高诚实性(减少“自信但错误/欺骗性”回答)、更稳定的指令遵循与工具使用。
2. 开发者新特性:minimal reasoning、verbosity 与 Custom Tools
2.1 reasoning_effort:更细粒度地控制“思考时长”
-
取值:
minimal/low/medium(默认)/high。 -
推荐用法:
-
首轮快速筛选:
minimal搭配verbosity=low,用来做“是否需要升级为深推理”的预判; -
复杂任务:遇到跨文件分析、非平凡算法推导、长链路工具调用时,再切到
high; -
容错策略:失败重试时提升到更高档,减少“错误自信”。
-
2.2 verbosity:用参数而非提示词控制“答案长短”
-
取值:
low/medium/high; -
典型场景:即时摘要(低冗词)、PR 说明(中等)、技术评审/复盘(高细节)。
2.3 Custom Tools:摆脱“只会 JSON”的束缚
-
作用:允许模型用明文(plain text)而不是 JSON 作为工具输入,且可用 正则/CFG 限定格式。
-
意义:对“复杂字符串/大段代码/SQL/配置/命令行”的工具输入,更少转义失败、更稳。
-
常见编排:
-
计划与分解 →
-
多工具并行执行(抓取/检索/编译/测试)→
-
可见式“工具前导消息”(preamble)汇报进度 →
-
汇总与下一步建议。
-
提示:API 仍保留 JSON Function Calling;Custom Tools 是“新增而不是替代”,适合人类本就写明文的那些工具输入(bash、SQL、正则、代码 diff、LaTeX 等)。
3. DeepSeek 家族速览:V3 与 R1 的工程画像
3.1 模型线与定位
-
DeepSeek‑V3:MoE(混合专家)+ MLA(多头潜在注意力)等优化,强调“算力效率/吞吐性价比”。
-
DeepSeek‑R1:后训练以强化学习为核心,强调推理能力(数学/代码/推断),开放权重、支持自托管。
3.2 开放与价格(API 端)
-
许可:R1 权重 MIT 许可(开放权重,可商用、可蒸馏)。
-
价格(以“每 100 万 tokens”为单位,含缓存价):
-
输入(命中缓存)$0.14;输入(未命中)$0.55;输出 $2.19。
-
-
上下文:常见 64K(部分平台支持到 128K,视托管与提供商而定)。
3.3 生态与落地位
-
适合隐私要求高、离线算力可用、预算敏感的场景;
-
与向量库(Milvus/Faiss)、检索框架(LangChain/LlamaIndex)、可视化日志(如自己写的 streamlit/Gradio)搭配,容易做出“可解释”的推理链。
4. GPT-5 vs DeepSeek:四维对比(能力/工具/上下文/价格)
4.1 概览对比表
| 维度 | GPT‑5(API 推理) | GPT‑5 chat‑latest(非推理) | DeepSeek‑R1(API,自托管) |
|---|---|---|---|
| 定位 | 推理模型族:gpt-5 / mini / nano |
ChatGPT 路由用的非推理模型 | 强化学习推理模型,开放权重 |
| 上下文 | 272k 输入 + 128k 推理/输出 ≈ 400k 总 | 由路由/场景决定 | 常见 64K(部分 128K) |
| 推理控制 | reasoning_effort:minimal…high |
无(由路由/提示控制) | 无专用参数(由提供商/温度等控制) |
| 输出控制 | verbosity:low/medium/high |
提示/路由 | 通过提示/温度/最大输出 |
| 工具调用 | 并行/链式 + Custom Tools(明文 + 正则/CFG + 可见式 preamble) | 统一工具链 | 常见 JSON/文本工具调用(平台相关) |
| 价格(USD/1M) | gpt‑5:in $1.25 / out $10;mini $0.25/$2;nano $0.05/$0.40 |
同价 | in $0.55(miss)/$0.14(hit),out $2.19 |
| 代表性评测 | AIME’25 94.6、SWE‑bench 74.9、Aider 88、MMMU 84.2 | —— | 与 o1 同量级(官方/社区报告) |
| 部署形态 | 云 API(也进 MS 生态) | ChatGPT 前端 | 开放权重/自托管 + API |
注:DeepSeek 的上下文与工具行为因不同云商/版本有差异;自托管时由读者自行设定推理步数、采样、上下文扩展等策略。
4.2 能力维度拆解(工程视角)
-
编码/代码理解:GPT‑5 在真实工程评测(SWE‑bench Verified、Aider diff)上表现更强;对前端生成、跨文件理解、自动纠错更稳。
-
工具与代理:GPT‑5 在长链路并行工具、错误处理、可见式进度回报方面体验更好;DeepSeek 自托管的优势是可控性与场内数据闭环。
-
长上下文检索:GPT‑5 的 400K 总上下文让“多文档/日志/代码仓”的一次性检索更现实;DeepSeek 常以 64K/128K 为主,但可以通过切片检索 + 思维链压缩降低上下文需求。
-
成本/合规:DeepSeek API 单价低且有缓存价;GPT‑5 提供Prompt 缓存/Batch等降本特性,并在企业/协同连接器上更成熟。
5. 选型决策树
问题 1:是否需要强代理化(多工具、跨系统、长上下文)?
-
是 → 优先 GPT‑5(Responses API + Custom Tools + 并行工具链),DeepSeek 可作离线预处理或批处理补位;
-
否 → 进入问题 2。
问题 2:是否必须“数据不出域/本地算力优先”?
-
是 → DeepSeek‑R1 自托管为主,必要时以 GPT‑5 作为在线交互前台(只传元数据/摘要);
-
否 → 进入问题 3。
问题 3:预算是否极度敏感?
-
是 → 首轮以低价模型过滤(
gpt‑5‑mini或 DeepSeek‑R1),达到复杂度阈值再切gpt‑5高推理; -
否 → 直接
gpt‑5,在关键环节开high,其余用minimal/low控制成本。
6. 实战一(GPT‑5):从代码审查到补丁提交的自动化代理
目标:给定 Issue/失败用例,自动检索 → 分析 → 生成补丁 → 运行测试 → 生成 PR 摘要。
6.1 工具编排思路
-
仓库检索工具(自定义明文工具,输入为“文件模式+关键函数名+可选正则”)
-
构建/测试工具(自定义明文工具,输入为 bash 脚本)
-
代码修改工具(JSON function,输入为 diff/patch 结构体)
-
进度汇报(preamble on/off:长任务时开启)
6.2 提示词骨架
系统:你是代码修复代理。优先最小修改,保持风格一致;所有变更附带原因与回滚提示。
用户:{Issue 摘要 + 失败用例 + 关键日志}
规则:
- 首轮使用 reasoning_effort=minimal + verbosity=low 给出“修复计划草案”(不写代码)。
- 确认后切换 reasoning_effort=high,按步骤调用工具:检索→编辑→构建→测试。
- 每次工具调用前输出 preamble:{当前步骤、目标、风险清单}。
- 失败重试:放宽检索范围或回滚上一步 patch。
6.3 Python(Responses API 示例)
以官方 SDK 为准,以下示例展示参数与 Custom Tools 思路(明文工具)。
from openai import OpenAI
client = OpenAI(api_key="${OPENAI_API_KEY}")
# —— 定义两个自定义明文工具(示意) ——
custom_tools = [
{
"type": "custom",
"name": "repo_search",
"description": "在代码库中搜索符号或模式,返回文件路径与上下文片段",
# 约束明文输入格式(正则/CFG 皆可,以下为正则示意)
"input_format_regex": r"(?s)pattern: .+?\nfiles: .+?\nmax_results: \d+"
},
{
"type": "custom",
"name": "run_ci",
"description": "执行 bash 脚本,返回stdout/stderr与退出码",
"input_format_regex": r"(?s)bash: .+"
}
]
plan = client.responses.create(
model="gpt-5",
reasoning={"effort": "minimal"}, # 等价于 reasoning_effort=minimal
verbosity="low",
tools=custom_tools,
input=[
{"role": "system", "content": "你是代码修复代理……(同上略)"},
{"role": "user", "content": "<ISSUE 与失败用例>"}
]
)
print(plan.output_text)
# 确认后执行高推理+工具链
repair = client.responses.create(
model="gpt-5",
reasoning={"effort": "high"},
verbosity="medium",
tool_choice="auto",
tools=custom_tools + [
{
"type": "function",
"name": "apply_patch",
"parameters": {
"type": "object",
"properties": {
"file": {"type": "string"},
"diff": {"type": "string"}
},
"required": ["file", "diff"]
}
}
],
input=[
{"role": "system", "content": "长任务请输出 preamble(中文),每步简要汇报。"},
{"role": "user", "content": "请按计划执行修复。"}
]
)
print(repair.output_text)
7. 实战二(DeepSeek):本地 RAG + 可视化推理链
目标:在自托管 R1 上实现“可解释”的检索增强问答,并把“思维/推导”可视化,方便审计。
7.1 部署与依赖
-
模型:DeepSeek‑R1(MIT 许可开放权重)。
-
框架:LangChain/LlamaIndex(二选一);
-
向量库:Milvus/Faiss;
-
可视化:使用 streamlit 快速搭 UI,把每轮“检索片段、思维链摘要、候选答案”展示为三栏。
7.2 关键技巧
-
分层检索:粗召回(BM25/向量)→ 精排(重打分)→ 证据去重(减少上下文冗余)。
-
“思维链摘要”:让模型先写“要点导图 + 证据映射”,再生成最终答案;
-
拒答阈值:给出“不确定→要求更多资料”的“安全出口”;
-
批处理:用 R1 处理大规模离线问答,线上仅在冲突/高风险时切到 GPT‑5 核验。
7.3 Python(DeepSeek API 示例)
以官方接口为准,下例展示“缓存友好”的调用姿势(假设返回头含缓存标记)。
import os, requests
API_KEY = os.getenv("DEEPSEEK_API_KEY")
url = "https://api.deepseek.com/chat/completions"
payload = {
"model": "deepseek-reasoner", # R1 推理模型
"messages": [
{"role": "system", "content": "你是审慎而诚实的研究助理,必要时明确拒答并说明需要的证据。"},
{"role": "user", "content": "<检索到的证据片段>\n\n问题:……"}
],
"temperature": 0.2,
"max_tokens": 1024
}
resp = requests.post(url, json=payload, headers={"Authorization": f"Bearer {API_KEY}"})
print(resp.json()["choices"][0]["message"]["content"])
# 读取响应头中的缓存命中/未命中(若平台提供)
print("Cache-Status:", resp.headers.get("X-Cache-Status", "unknown"))
延伸:零基础读者入门指引(可选)
对这个主题感兴趣、但还处在起步阶段的读者,可以从下面两本教材型内容开始系统上手(均含视频),最近价格都很便宜了:
-
《ChatGPT商业应用实操手册(226集视频课+217种场景应用)》:清华大学出版社出版,覆盖提示工程、流程自动化、办公/销售/运营等 200+ 场景,配套可复用模板,适合零基础到进阶。

-
《deepseek行业应用手册(微课视频版)》:中国水利水电出版社出版,聚焦本地/私有化与行业落地,丰富场景案例,适合希望快速搭建原型的读者。

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)