GPT-5 发布,统一系统与推理能力显著升级:400K 上下文、minimal reasoning、verbosity、新的 Custom Tools 与并行工具链。本文以工程师视角对比 GPT-5 与 DeepSeek,并给出可复制的实战方案与选型策略。文末有萌新推荐书籍,不容错过!

目录

1. GPT-5 是什么

2. 开发者新特性:minimal reasoning、verbosity 与 Custom Tools

2.1 reasoning_effort:更细粒度地控制“思考时长”

2.2 verbosity:用参数而非提示词控制“答案长短”

2.3 Custom Tools:摆脱“只会 JSON”的束缚

3. DeepSeek 家族速览:V3 与 R1 的工程画像

3.1 模型线与定位

3.2 开放与价格(API 端)

3.3 生态与落地位

4. GPT-5 vs DeepSeek:四维对比(能力/工具/上下文/价格)

4.1 概览对比表

4.2 能力维度拆解(工程视角)

5. 选型决策树

6. 实战一(GPT‑5):从代码审查到补丁提交的自动化代理

6.1 工具编排思路

6.2 提示词骨架

6.3 Python(Responses API 示例)

7. 实战二(DeepSeek):本地 RAG + 可视化推理链

7.1 部署与依赖

7.2 关键技巧

7.3 Python(DeepSeek API 示例)

延伸:零基础读者入门指引(可选)


与 GPT-4o 相比,GPT-5 的亲切感有所减弱不必要的表情符号也更少,后续的互动也更加细腻周到。与其说是“与 AI 对话”,不如说更像是在与一位拥有博士级智力水平的乐于助人的朋友聊天。

1. GPT-5 是什么

GPT-5 是一个“统一系统”(Unified System),包含快模型(面向日常响应)、深度推理模型(GPT‑5 thinking,面向复杂任务)与实时路由器(按任务难度/上下文/工具需求/显式意图自动切换)。ChatGPT 端默认由系统自动调度;API 端给到推理模型族(gpt-5 / gpt-5-mini / gpt-5-nano)与非推理聊天模型 gpt-5-chat-latest

关键点清单

  • 可用性:所有 ChatGPT 用户可用,Plus 使用上限更高;Pro 额外可开启 GPT‑5 pro(更深的并行推理)。

  • 上下文:API 端最大 272k 输入 + 128k 推理/输出 ≈ 400k 总上下文,适合超长文档检索与多轮工具编排。

  • 评测层面:在 AIME’25、SWE‑bench Verified、Aider polyglot、MMMU、HealthBench 等多项评测中刷新纪录,尤其在编码与代理化任务上提升显著。

  • 系统目标:更低幻觉率、更高诚实性(减少“自信但错误/欺骗性”回答)、更稳定的指令遵循与工具使用。

2. 开发者新特性:minimal reasoning、verbosity 与 Custom Tools

2.1 reasoning_effort:更细粒度地控制“思考时长”

  • 取值:minimal / low / medium(默认)/ high

  • 推荐用法:

    • 首轮快速筛选minimal 搭配 verbosity=low,用来做“是否需要升级为深推理”的预判;

    • 复杂任务:遇到跨文件分析、非平凡算法推导、长链路工具调用时,再切到 high

    • 容错策略:失败重试时提升到更高档,减少“错误自信”。

2.2 verbosity:用参数而非提示词控制“答案长短”

  • 取值:low / medium / high

  • 典型场景:即时摘要(低冗词)、PR 说明(中等)、技术评审/复盘(高细节)。

2.3 Custom Tools:摆脱“只会 JSON”的束缚

  • 作用:允许模型用明文(plain text)而不是 JSON 作为工具输入,且可用 正则/CFG 限定格式。

  • 意义:对“复杂字符串/大段代码/SQL/配置/命令行”的工具输入,更少转义失败、更稳。

  • 常见编排:

    1. 计划与分解 →

    2. 多工具并行执行(抓取/检索/编译/测试)→

    3. 可见式“工具前导消息”(preamble)汇报进度 →

    4. 汇总与下一步建议。

提示:API 仍保留 JSON Function Calling;Custom Tools 是“新增而不是替代”,适合人类本就写明文的那些工具输入(bash、SQL、正则、代码 diff、LaTeX 等)。

3. DeepSeek 家族速览:V3 与 R1 的工程画像

3.1 模型线与定位

  • DeepSeek‑V3:MoE(混合专家)+ MLA(多头潜在注意力)等优化,强调“算力效率/吞吐性价比”。

  • DeepSeek‑R1:后训练以强化学习为核心,强调推理能力(数学/代码/推断),开放权重、支持自托管。

3.2 开放与价格(API 端)

  • 许可:R1 权重 MIT 许可(开放权重,可商用、可蒸馏)。

  • 价格(以“每 100 万 tokens”为单位,含缓存价):

    • 输入(命中缓存)$0.14;输入(未命中)$0.55;输出 $2.19。

  • 上下文:常见 64K(部分平台支持到 128K,视托管与提供商而定)。

3.3 生态与落地位

  • 适合隐私要求高、离线算力可用、预算敏感的场景;

  • 与向量库(Milvus/Faiss)、检索框架(LangChain/LlamaIndex)、可视化日志(如自己写的 streamlit/Gradio)搭配,容易做出“可解释”的推理链。

4. GPT-5 vs DeepSeek:四维对比(能力/工具/上下文/价格)

4.1 概览对比表

维度 GPT‑5(API 推理) GPT‑5 chat‑latest(非推理) DeepSeek‑R1(API,自托管)
定位 推理模型族:gpt-5 / mini / nano ChatGPT 路由用的非推理模型 强化学习推理模型,开放权重
上下文 272k 输入 + 128k 推理/输出 ≈ 400k 总 由路由/场景决定 常见 64K(部分 128K)
推理控制 reasoning_effort:minimal…high 无(由路由/提示控制) 无专用参数(由提供商/温度等控制)
输出控制 verbosity:low/medium/high 提示/路由 通过提示/温度/最大输出
工具调用 并行/链式 + Custom Tools(明文 + 正则/CFG + 可见式 preamble) 统一工具链 常见 JSON/文本工具调用(平台相关)
价格(USD/1M) gpt‑5:in $1.25 / out $10;mini $0.25/$2;nano $0.05/$0.40 同价 in $0.55(miss)/$0.14(hit),out $2.19
代表性评测 AIME’25 94.6、SWE‑bench 74.9、Aider 88、MMMU 84.2 —— 与 o1 同量级(官方/社区报告)
部署形态 云 API(也进 MS 生态) ChatGPT 前端 开放权重/自托管 + API

注:DeepSeek 的上下文与工具行为因不同云商/版本有差异;自托管时由读者自行设定推理步数、采样、上下文扩展等策略。

4.2 能力维度拆解(工程视角)

  • 编码/代码理解:GPT‑5 在真实工程评测(SWE‑bench Verified、Aider diff)上表现更强;对前端生成、跨文件理解、自动纠错更稳。

  • 工具与代理:GPT‑5 在长链路并行工具、错误处理、可见式进度回报方面体验更好;DeepSeek 自托管的优势是可控性场内数据闭环

  • 长上下文检索:GPT‑5 的 400K 总上下文让“多文档/日志/代码仓”的一次性检索更现实;DeepSeek 常以 64K/128K 为主,但可以通过切片检索 + 思维链压缩降低上下文需求。

  • 成本/合规:DeepSeek API 单价低且有缓存价;GPT‑5 提供Prompt 缓存/Batch等降本特性,并在企业/协同连接器上更成熟。

5. 选型决策树

问题 1:是否需要强代理化(多工具、跨系统、长上下文)?

  • 是 → 优先 GPT‑5(Responses API + Custom Tools + 并行工具链),DeepSeek 可作离线预处理批处理补位;

  • 否 → 进入问题 2。

问题 2:是否必须“数据不出域/本地算力优先”?

  • 是 → DeepSeek‑R1 自托管为主,必要时以 GPT‑5 作为在线交互前台(只传元数据/摘要);

  • 否 → 进入问题 3。

问题 3:预算是否极度敏感?

  • 是 → 首轮以低价模型过滤(gpt‑5‑mini 或 DeepSeek‑R1),达到复杂度阈值再切 gpt‑5 高推理;

  • 否 → 直接 gpt‑5,在关键环节开 high,其余用 minimal/low 控制成本。

6. 实战一(GPT‑5):从代码审查到补丁提交的自动化代理

目标:给定 Issue/失败用例,自动检索 → 分析 → 生成补丁 → 运行测试 → 生成 PR 摘要。

6.1 工具编排思路

  1. 仓库检索工具(自定义明文工具,输入为“文件模式+关键函数名+可选正则”)

  2. 构建/测试工具(自定义明文工具,输入为 bash 脚本)

  3. 代码修改工具(JSON function,输入为 diff/patch 结构体)

  4. 进度汇报(preamble on/off:长任务时开启)

6.2 提示词骨架

系统:你是代码修复代理。优先最小修改,保持风格一致;所有变更附带原因与回滚提示。
用户:{Issue 摘要 + 失败用例 + 关键日志}
规则:
- 首轮使用 reasoning_effort=minimal + verbosity=low 给出“修复计划草案”(不写代码)。
- 确认后切换 reasoning_effort=high,按步骤调用工具:检索→编辑→构建→测试。
- 每次工具调用前输出 preamble:{当前步骤、目标、风险清单}。
- 失败重试:放宽检索范围或回滚上一步 patch。

6.3 Python(Responses API 示例)

以官方 SDK 为准,以下示例展示参数与 Custom Tools 思路(明文工具)。

from openai import OpenAI

client = OpenAI(api_key="${OPENAI_API_KEY}")

# —— 定义两个自定义明文工具(示意) ——
custom_tools = [
    {
        "type": "custom",
        "name": "repo_search",
        "description": "在代码库中搜索符号或模式,返回文件路径与上下文片段",
        # 约束明文输入格式(正则/CFG 皆可,以下为正则示意)
        "input_format_regex": r"(?s)pattern: .+?\nfiles: .+?\nmax_results: \d+"
    },
    {
        "type": "custom",
        "name": "run_ci",
        "description": "执行 bash 脚本,返回stdout/stderr与退出码",
        "input_format_regex": r"(?s)bash: .+"
    }
]

plan = client.responses.create(
    model="gpt-5",
    reasoning={"effort": "minimal"},   # 等价于 reasoning_effort=minimal
    verbosity="low",
    tools=custom_tools,
    input=[
        {"role": "system", "content": "你是代码修复代理……(同上略)"},
        {"role": "user", "content": "<ISSUE 与失败用例>"}
    ]
)
print(plan.output_text)

# 确认后执行高推理+工具链
repair = client.responses.create(
    model="gpt-5",
    reasoning={"effort": "high"},
    verbosity="medium",
    tool_choice="auto",
    tools=custom_tools + [
        {
            "type": "function",
            "name": "apply_patch",
            "parameters": {
                "type": "object",
                "properties": {
                    "file": {"type": "string"},
                    "diff": {"type": "string"}
                },
                "required": ["file", "diff"]
            }
        }
    ],
    input=[
        {"role": "system", "content": "长任务请输出 preamble(中文),每步简要汇报。"},
        {"role": "user", "content": "请按计划执行修复。"}
    ]
)
print(repair.output_text)

7. 实战二(DeepSeek):本地 RAG + 可视化推理链

目标:在自托管 R1 上实现“可解释”的检索增强问答,并把“思维/推导”可视化,方便审计。

7.1 部署与依赖

  • 模型:DeepSeek‑R1(MIT 许可开放权重)。

  • 框架:LangChain/LlamaIndex(二选一);

  • 向量库:Milvus/Faiss;

  • 可视化:使用 streamlit 快速搭 UI,把每轮“检索片段、思维链摘要、候选答案”展示为三栏。

7.2 关键技巧

  • 分层检索:粗召回(BM25/向量)→ 精排(重打分)→ 证据去重(减少上下文冗余)。

  • “思维链摘要”:让模型先写“要点导图 + 证据映射”,再生成最终答案;

  • 拒答阈值:给出“不确定→要求更多资料”的“安全出口”;

  • 批处理:用 R1 处理大规模离线问答,线上仅在冲突/高风险时切到 GPT‑5 核验。

7.3 Python(DeepSeek API 示例)

以官方接口为准,下例展示“缓存友好”的调用姿势(假设返回头含缓存标记)。

import os, requests

API_KEY = os.getenv("DEEPSEEK_API_KEY")
url = "https://api.deepseek.com/chat/completions"

payload = {
    "model": "deepseek-reasoner",   # R1 推理模型
    "messages": [
        {"role": "system", "content": "你是审慎而诚实的研究助理,必要时明确拒答并说明需要的证据。"},
        {"role": "user", "content": "<检索到的证据片段>\n\n问题:……"}
    ],
    "temperature": 0.2,
    "max_tokens": 1024
}

resp = requests.post(url, json=payload, headers={"Authorization": f"Bearer {API_KEY}"})
print(resp.json()["choices"][0]["message"]["content"])

# 读取响应头中的缓存命中/未命中(若平台提供)
print("Cache-Status:", resp.headers.get("X-Cache-Status", "unknown"))

延伸:零基础读者入门指引(可选)

对这个主题感兴趣、但还处在起步阶段的读者,可以从下面两本教材型内容开始系统上手(均含视频),最近价格都很便宜了:

  • 《ChatGPT商业应用实操手册(226集视频课+217种场景应用)》:清华大学出版社出版,覆盖提示工程、流程自动化、办公/销售/运营等 200+ 场景,配套可复用模板,适合零基础到进阶。​​​​​​​

  • 《deepseek行业应用手册(微课视频版)》:中国水利水电出版社出版,聚焦本地/私有化与行业落地,丰富场景案例,适合希望快速搭建原型的读者。

        

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐