目录

一、为什么选择 Dify 搭建应用

(一)低门槛,人人皆可开发

(二)丰富模型支持,总有一款适合你

(三)高效开发,快速迭代

二、搭建前的准备工作

(一)环境要求

(二)账号与工具准备

三、详细搭建步骤

(一)获取 Dify 源码

(二)配置环境文件

(三)启动 Dify 服务

四、初次使用与基础设置

(一)首次登录与账号设置

(二)熟悉操作界面

五、实战:创建一个简单的 Dify 应用

(一)确定应用需求与目标

(二)添加大模型供应商

(三)构建工作流

(四)测试与优化应用

六、常见问题与解决方法

(一)端口冲突

(二)模型加载失败

(三)工作流运行报错

七、总结与展望


一、为什么选择 Dify 搭建应用

在大语言模型应用开发的广阔天地中,Dify 宛如一颗璀璨的新星,迅速吸引了众多开发者的目光,其中也包括我。它究竟有何独特魅力,能让大家纷纷为之倾心呢?

(一)低门槛,人人皆可开发

以往,开发大语言模型应用似乎是专业程序员的专属领域,复杂的代码、高深的算法,让很多对 AI 满怀热情却缺乏技术背景的人望而却步。但 Dify 的出现,彻底打破了这一局面。它提供了可视化的操作界面,就像搭积木一样,你只需将各种功能模块拖拽到合适的位置,进行简单的配置,就能轻松搭建出自己的 AI 应用 。比如,想要创建一个智能客服,无需编写大量繁琐的代码,通过 Dify 的可视化界面,连接问题识别模块、知识库检索模块和回答生成模块,一个基本的智能客服雏形就诞生了。这使得没有深厚编程基础的博主,也能将脑海中的创意迅速转化为实际可用的应用。

(二)丰富模型支持,总有一款适合你

Dify 就像一个庞大的模型超市,里面陈列着各种各样的大语言模型。无论你是钟情于 OpenAI 的 GPT 系列,还是对开源的 Llama、Mistral 等模型感兴趣,亦或是想要尝试国内的文心一言、通义千问,Dify 都能满足你的需求。它支持数百种专有 / 开源 LLMs 以及数十种推理提供商和自托管解决方案,并且对 OpenAI 兼容模型提供无缝支持 。这种丰富的模型选择,意味着我们可以根据应用的具体需求和预算,灵活挑选最合适的模型。如果是对回答准确性和逻辑性要求极高的知识问答应用,可能会选择 GPT-4;而对于一些预算有限,且对模型性能要求不是特别苛刻的简单文本生成任务,开源模型或许就是不错的选择。而且,在 Dify 上切换模型非常方便,无需修改大量代码,就能轻松实现 “低成本模型优化”,比如从 GPT-3.5 切换到开源模型测试效果,这大大降低了模型使用的成本和难度。

(三)高效开发,快速迭代

在这个瞬息万变的互联网时代,时间就是金钱,效率就是生命。Dify 深知这一点,它为开发者提供了一系列强大的工具,助力高效开发。其可视化工作流功能,让我们可以直观地设计 AI 逻辑。通过拖放式操作,将模型调用、工具集成、数据处理等节点连接起来,就能搭建出复杂的 AI 流程 ,并且还支持实时调试和版本管理。想象一下,在搭建一个内容创作助手时,我们可以将用户输入节点连接到文本生成模型节点,再连接到语法检查工具节点,最后输出优化后的文本。整个流程在可视化界面中清晰呈现,哪里出现问题,随时可以进行调整。同时,Dify 的 Prompt IDE 也为提示工程带来了极大的便利。它是一个可视化编辑器,支持变量注入、条件分支,比如根据用户问题复杂度切换提示策略,还能实时预览不同提示词的输出效果 。通过它,我们可以快速优化提示词,提升模型的输出质量,实现应用的快速迭代。

二、搭建前的准备工作

在正式开启 Dify 应用搭建之旅前,我们得先把前期的准备工作做扎实,就像盖房子要先打好地基一样。这部分主要包括确认环境要求,以及准备好必要的账号和工具 。

(一)环境要求

  • 硬件方面
    • CPU:至少 2 核心,核心数越多,在处理复杂模型和大量请求时,性能表现越出色。比如搭建一个面向较多用户的智能写作助手应用,较多的 CPU 核心能确保同时处理多个用户的写作需求,不会出现响应迟缓的情况 。
    • 内存:建议 4GB 及以上。如果要使用一些大型的语言模型,如 GPT-4 等,更大的内存可以保证模型运行的流畅性,避免因内存不足导致应用崩溃或运行缓慢 。
  • 软件方面
    • 操作系统:Linux 或 macOS 是较为推荐的系统,它们对开源工具和 Docker 的支持更友好,在安装和配置过程中可能会更顺利。不过,Windows 系统也能通过 Windows Subsystem for Linux(WSL)来安装 Dify 。
    • Docker:需要安装 Docker 和 Docker Compose。Docker 是一个开源的应用容器引擎,它可以让我们轻松地创建、部署和运行应用程序。Dify 的安装和运行依赖于 Docker,通过 Docker 可以快速构建出隔离的运行环境,确保 Dify 及其相关组件的稳定运行 。
    • Python:版本需在 3.8 或更高。Python 在 Dify 的一些功能模块中扮演着重要角色,比如数据处理、模型配置等,高版本的 Python 能提供更好的兼容性和性能 。

(二)账号与工具准备

  • 注册 Dify 账号
    • 云端 SaaS 版:访问 Dify 官网(Dify: Leading Agentic AI Development Platform),点击右上角「Sign Up」进入注册页面。支持邮箱注册或使用第三方账号(GitHub、Google)快速登录 。填写邮箱并完成验证后,系统就会引导你进入控制台界面。免费版用户可获得 200 次 GPT-4 调用额度及 5MB 知识库存储空间,对于想要初步体验和验证功能的我们来说,这已经足够进行一些简单的应用搭建和测试了 。
    • 私有化部署版:技术团队可以通过 Docker 部署本地版本。首先确保服务器满足最低配置(CPU≥2 核,RAM≥4GB),然后按照以下步骤操作:使用git clone https://github.com/langgenius/dify.git命令克隆 Dify 仓库;进入dify/docker目录,执行cp .env.example .env复制环境变量示例文件;接着使用docker compose up -d命令启动 Dify 。部署完成后,访问http://localhost/install初始化管理员账号,设置密码时需注意复杂度,要包含大小写字母及特殊符号 。
  • 安装必备工具
    • Git:它是一个分布式版本控制系统,用于跟踪源代码的变化,允许多个开发者协作开发同一个项目 。
      • 安装:以 Windows 系统为例,双击下载好的 exe 安装包,在安装向导中,点击 “Next”;选择安装位置,建议安装在非系统盘,比如 D 盘新建的文件夹;选组件时,勾选 “New! Add a Git Bash Profile to Windows Terminal”,这样就能在 Windows 自带的命令提示符中直接使用 Git 命令;后续步骤大多保持默认设置,如选择默认编辑器(建议 VSCode 用户可选 VSCode)、环境变量设置选择 “Git from the command line and also from 3rd - party software” ,以便在任何地方的命令行都能使用 Git 命令;最后点击 “Install” 完成安装 。
    • 命令行终端:在 Windows 系统中,可以使用自带的命令提示符(CMD),也可以安装更强大的终端工具,如 Tabby 。Tabby 是一个无限可定制的跨平台终端应用程序,支持 Windows、Linux、macOS,用于本地 shell、串行、SSH 和 Telnet 连接 。
      • 相关配置:安装后启动 Tabby,它支持中文,在设置中可选择语言;还能进行其他配置,如开启 shell 集成,允许在选定的文件夹中快速打开终端;设置外观,包括字体大小等;选择打开新标签页的默认配置,比如 CMD (stock) 。

三、详细搭建步骤

(一)获取 Dify 源码

准备工作就绪后,就可以获取 Dify 的源码了。我们通过 Git 来克隆 Dify 项目的代码,这是一种高效的获取项目代码的方式。打开命令行终端,输入以下命令:


git clone https://github.com/langgenius/dify.git

这条命令会在当前目录下创建一个名为 “dify” 的文件夹,并将 Dify 项目的所有代码克隆到这个文件夹中 。不过,在克隆过程中,可能会遇到网络问题,比如连接超时、下载速度过慢等。这可能是因为网络不稳定,或者 GitHub 的服务器在国外,网络访问受到限制 。

解决方法有几种。如果是网络不稳定,可以尝试切换网络,比如从 Wi-Fi 切换到移动数据,或者重启路由器 。要是因为网络访问限制,可以使用代理服务器。以 Windows 系统为例,在命令行中设置代理的命令如下:


set HTTP_PROXY=http://代理服务器地址:端口号

set HTTPS_PROXY=http://代理服务器地址:端口号

把 “代理服务器地址” 和 “端口号” 替换成实际的代理信息 。设置好代理后,再执行克隆命令,应该就能顺利获取代码了。

(二)配置环境文件

获取源码后,接下来要配置环境文件。进入刚才克隆的 “dify” 文件夹,找到 “docker” 目录,里面有一个名为 “.env.example” 的文件,这个文件是环境变量的示例文件 。我们需要复制这个文件,并将复制后的文件重命名为 “.env”,在命令行中执行以下命令:


cp .env.example .env

然后,使用文本编辑器打开 “.env” 文件,开始配置关键参数 。

  • 端口号设置
    • 含义:端口号就像是应用程序的 “门牌号”,不同的应用通过不同的端口号来接收和发送数据 。在 Dify 中,默认的 Web 服务端口是 3000,如果这个端口被占用,Dify 就无法正常启动 。
    • 配置方法:在.env 文件中,找到 “PORT=3000” 这一行,如果想修改端口号,比如改为 3001,就将其修改为 “PORT=3001” 。修改后,Dify 的 Web 服务就会在 3001 端口上运行,后续访问 Dify 的地址也要相应地改为 “http://localhost:3001” 。
  • 密钥配置
    • 含义:密钥是保证应用程序安全的重要因素,它用于加密和解密数据,防止数据被窃取或篡改 。在 Dify 中,密钥用于对用户的敏感信息进行加密,比如用户的登录信息、会话数据等 。
    • 配置方法:在.env 文件中,找到 “APP_KEY=” 这一行,密钥通常是一个很长的随机字符串。如果是自己搭建 Dify 应用,可以使用一些工具生成随机密钥,比如在 Linux 系统中,可以使用以下命令生成一个随机密钥:

openssl rand -base64 32

执行这个命令后,会生成一个 32 位的随机字符串,将这个字符串复制到 “APP_KEY=” 后面即可 。

(三)启动 Dify 服务

完成环境文件配置后,就可以启动 Dify 服务了,我们使用 Docker Compose 来启动,这是一种方便管理容器化应用的工具 。在 “dify/docker” 目录下,打开命令行终端,输入以下命令:


docker compose up -d

“-d” 参数表示以守护进程模式运行,即启动后在后台运行,不会占用命令行终端 。执行这个命令后,Docker Compose 会根据 “docker-compose.yml” 文件的配置,启动 Dify 所需的所有服务,包括 Web 服务、数据库服务等 。在启动过程中,会看到一系列的日志信息,这些信息记录了服务启动的过程和状态 。

  • 日志信息解读
    • 拉取镜像:首先会看到类似 “Pulling db (postgres:15-alpine)...” 的日志,表示正在拉取数据库服务的镜像 。如果拉取成功,会显示 “Status: Downloaded newer image for postgres:15-alpine” 。
    • 启动容器:接着会看到 “Creating docker-db-1 ... done” 等日志,表示正在创建并启动容器 。当所有容器都创建并启动成功后,就可以访问 Dify 了 。
  • 启动失败排查思路
    • 端口冲突:如果启动失败,且日志中出现类似 “Port 3000 is already in use” 的错误信息,说明端口 3000 被其他程序占用了 。这时,需要找到占用该端口的程序并关闭它,或者按照前面配置端口号的方法,修改 Dify 的端口号 。
    • 依赖问题:要是日志中提示缺少某个依赖项,比如 “Error: No such file or directory”,这可能是因为环境配置有问题,某些依赖项没有正确安装 。需要检查环境配置,确保所有依赖项都已安装 。比如,如果缺少某个 Python 库,就需要使用 pip 命令安装 。

四、初次使用与基础设置

(一)首次登录与账号设置

当我们完成 Dify 的部署,在浏览器中输入访问地址(如果是本地部署,通常是http://localhost:3000 ),首次映入眼帘的便是 Dify 简洁而现代的登录界面。对于新用户来说,点击 “注册” 按钮,按照提示填写邮箱、设置密码 ,并完成邮箱验证,即可快速创建属于自己的账号。这里要特别强调一下账号安全的重要性,设置密码时,尽量采用复杂的组合,包含大小写字母、数字以及特殊符号,比如 “Abc@123456”,这样能有效防止账号被破解,保护我们在 Dify 上的数据安全和应用安全 。

(二)熟悉操作界面

成功登录后,就正式进入了 Dify 的操作界面,这里就像是一个充满无限可能的创意空间。首先映入眼帘的是顶部菜单栏,它包含了 “探索”“工作室”“知识库”“工具” 等主要功能入口 。“探索” 页面就像一个灵感宝库,展示了其他用户创建的优秀 AI 应用案例,我们可以从中获取灵感,学习他们的设计思路和实现方法;“工作室” 是我们的创作舞台,在这里可以创建、编辑和管理自己的 AI 应用;“知识库” 则是知识的储备仓库,用于存储和管理与应用相关的各种文档、数据等;“工具” 区域提供了丰富的外部工具集成选项,比如搜索引擎、图像生成工具等,可以进一步拓展应用的功能 。

再看中间的主要区域,是工作流编辑区,这是 Dify 的核心功能区域之一,就像一个可视化的编程画布 。在这里,我们通过拖放节点和连接线条,就能轻松构建出复杂的 AI 工作流。每个节点都代表着一个特定的功能,比如 “开始” 节点是工作流的起点,用于接收用户输入;“LLM” 节点用于调用大语言模型进行文本生成;“条件分支” 节点可以根据不同的条件决定工作流的走向 。通过将这些节点合理地连接起来,就能实现各种智能逻辑,比如创建一个智能客服应用时,可以连接 “用户提问” 节点、“问题分类” 节点、“知识库检索” 节点和 “回答生成” 节点,实现对用户问题的智能回答 。

在界面的一侧,通常是模型管理区,在这里可以管理和配置使用的大语言模型 。Dify 支持多种模型,我们可以根据应用需求添加不同的模型,并设置模型的相关参数,如 API 密钥、模型版本等。例如,如果要使用 OpenAI 的 GPT-3.5 模型,就需要在这里输入正确的 API 密钥,确保模型能够正常调用 。

五、实战:创建一个简单的 Dify 应用

理论知识和前期准备都完成后,现在让我们进入激动人心的实战环节,亲手创建一个简单的 Dify 应用。我将以创建一个智能问答机器人为例,详细介绍整个过程,大家可以跟着步骤一起操作,感受 Dify 应用搭建的魅力 。

(一)确定应用需求与目标

在动手搭建之前,明确应用的需求和目标至关重要。就像建造房子,得先有设计蓝图。对于我们要创建的智能问答机器人,它的主要功能是回答用户提出的各种问题,比如常见的生活常识问题、科技知识问题等 。目标用户可以设定为对知识有强烈渴望,希望快速获取准确信息的人群,比如学生、职场人士等 。只有明确了这些,我们在后续的搭建过程中,才能有的放矢,选择合适的模型和配置,让应用更好地满足用户需求 。大家在思考自己的应用场景时,也可以从这些方面入手,先想清楚应用要解决什么问题,为哪些人服务。

(二)添加大模型供应商

Dify 支持多种大模型供应商,这为我们提供了丰富的选择。以添加 OpenAI 为例,登录 Dify 后,点击右上角头像,选择 “设置” 。在左侧菜单中点击 “模型供应商”,然后点击 “添加模型供应商”,在弹出的对话框中选择 “OpenAI” 。接着,填写 API 密钥(需要提前在 OpenAI 官网获取),以及选择要使用的模型,如 GPT-3.5 Turbo、GPT-4 等 。除了 OpenAI,Anthropic 也是一个不错的选择,它的 Claude 模型在自然语言处理方面表现出色,具有强大的推理和对话能力 。在添加 Anthropic 模型时,同样需要获取并填写对应的 API 密钥 。选择供应商时,要综合考虑模型的性能、价格、适用场景等因素 。如果对回答的准确性和逻辑性要求极高,且预算充足,GPT-4 可能是首选;如果追求性价比,开源模型或者一些新兴供应商的模型也许更合适 。

(三)构建工作流

工作流是 Dify 应用的核心逻辑,就像人体的神经系统,控制着各个功能的运行。下面我来详细讲解如何使用 Dify 的工作流编辑器创建智能问答工作流 。

  1. 添加输入输出节点:进入应用的工作流编辑界面,首先看到的是默认的 “开始” 节点,这是工作流的起点,用于接收用户输入 。我们再添加一个 “输出” 节点,用于展示模型生成的回答 。在节点库中找到 “输出” 节点,将其拖拽到编辑区,然后用连接线将 “开始” 节点和 “输出” 节点连接起来 。
  1. 调用模型节点:这是工作流的关键部分,用于调用大语言模型进行问题回答 。在节点库中选择 “LLM” 节点,添加到编辑区,并连接到 “开始” 节点 。点击 “LLM” 节点,在右侧的配置面板中,选择之前添加的模型供应商和具体模型,比如 OpenAI 的 GPT-3.5 Turbo 。还可以设置一些参数,如温度(Temperature),它控制着模型输出的随机性,取值范围通常是 0 - 1,值越大,输出越随机,创造力越强;值越小,输出越确定,更符合常识和逻辑 。一般在进行创意写作时,可以将温度设置得高一些,如 0.8;而在进行知识问答时,为了保证回答的准确性,可将温度设置得低一些,如 0.2 。
  1. 设置逻辑判断节点:有时候,我们希望根据用户的问题类型,进行不同的处理。这就需要用到逻辑判断节点,比如 “条件分支” 节点 。假设我们希望当用户提问关于历史的问题时,优先从历史知识库中检索答案,而其他问题则直接由模型回答 。添加 “条件分支” 节点,连接到 “开始” 节点,在条件设置中,通过一些关键词匹配或者自然语言处理技术,判断问题是否与历史相关 。如果是,连接到历史知识库检索节点;如果不是,连接到之前的 “LLM” 节点 。通过这样的逻辑判断和流程控制,让应用更加智能和灵活 。(此处可插入工作流编辑界面截图,清晰展示各节点的连接和配置情况)

(四)测试与优化应用

创建好应用后,并不意味着大功告成,还需要进行严格的测试和优化,就像打磨一件艺术品,不断精益求精 。在 Dify 中,测试非常简单,点击右上角的 “预览” 按钮,就可以进入测试界面 。在输入框中输入各种不同类型的问题,观察应用的回答效果 。比如输入 “秦始皇统一六国的时间是什么时候?”,查看应用是否能给出准确的答案 。如果发现回答不准确或者不符合预期,就需要进行优化 。

  • 优化工作流:检查工作流中各个节点的连接和配置是否正确,比如模型节点的参数设置是否合理,逻辑判断节点的条件是否准确 。如果发现条件分支节点的判断不准确,导致问题处理流程错误,就需要调整判断条件 。
  • 优化提示词:提示词对模型的输出结果影响很大,一个好的提示词能引导模型生成更准确、更有用的回答 。比如在智能问答应用中,我们可以将提示词设置为 “你是一个知识渊博的智能助手,对于用户提出的问题,要给出准确、简洁的回答。如果问题涉及历史事件,要详细说明事件的时间、地点、人物等关键信息 。” 通过不断优化提示词,让模型更好地理解用户需求,提高回答质量 。通过反复测试和优化,让我们的应用性能不断提升,为用户提供更好的服务 。

六、常见问题与解决方法

在 Dify 应用搭建和使用过程中,难免会遇到一些问题,下面汇总了一些常见问题及对应的解决方法 。

(一)端口冲突

问题描述:在启动 Dify 服务时,提示端口已被占用,如 “Port 3000 is already in use” 。这是因为 Dify 默认使用的端口(如 3000)被其他程序占用,导致 Dify 无法正常启动 。

解决办法:首先,需要找出占用该端口的程序 。在 Windows 系统中,可以打开命令提示符,输入命令 “netstat -ano | findstr :3000”(假设被占用的端口是 3000),会显示占用该端口的进程 ID(PID) 。然后,打开任务管理器,在 “详细信息” 选项卡中,找到对应的 PID,结束该进程 。如果不想结束占用端口的程序,也可以修改 Dify 的端口配置 。在 Dify 的环境文件(.env)中,找到 “PORT=3000” 这一行,将端口号修改为其他未被占用的端口,如 3001,然后重新启动 Dify 服务 。

(二)模型加载失败

问题描述:添加模型供应商并配置好模型后,在调用模型时提示模型加载失败,可能是因为模型文件损坏或不完整、模型服务未正常启动、网络连接不稳定或 API 接口配置错误等原因 。比如使用 Ollama 模型时,可能会出现 “模型加载失败或 API 连接异常” 的报错 。

解决办法:如果是模型文件损坏或不完整,需要重新下载模型文件,并使用校验工具(如 MD5 或 SHA-256)验证模型文件是否正确下载 。对于模型服务未正常启动的情况,要确保模型服务已启动并运行正常 。比如 Ollama 服务,可以尝试通过命令行执行 “ollama status” 来检查 。要是网络连接不稳定或防火墙限制,使用 ping 或 curl 命令测试目标 API 地址的可达性,并调整防火墙设置 。如果是 API 接口配置错误,仔细核对 API URL、端口、认证信息等是否正确配置 。此外,查看 Dify 和模型服务的日志文件,定位具体错误信息,也有助于快速解决问题 。

(三)工作流运行报错

问题描述:在构建好工作流并运行时,出现各种报错,如 “Run failed: Invalid context structure”“没有 psycopg2 模块”“Run failed: error: timeout” 等 。这些错误可能是由于工作流配置错误、缺少依赖模块、代码执行超时等原因导致 。比如执行图像视觉推理时报错 “无效的上下文结构”,可能是因为模型不支持多模态输入,或者上下文结构的格式不符合节点逻辑要求 ;在使用代码执行流程时,提示 “没有 psycopg2 模块”,是因为缺少该依赖模块 ;而 “Run failed: error: timeout” 则是代码执行超时导致 。

解决办法:对于 “Invalid context structure” 错误,先确认使用的模型是否明确支持视觉 / 多模态(图像 / 文件)输入 。如果不支持,切换到支持的模型 。同时,确保工作流或聊天流将上下文作为字符串传递,或者如果模型支持多模态,则将其作为具有 “内容” 字段的正确结构化对象传递 。要是缺少依赖模块,以 “没有 psycopg2 模块” 为例,打开命令行终端,进入 Dify 的沙盒容器(使用命令 “docker exec -it docker-sandbox-1 bash”),然后运行命令 “pip install psycopg2” 安装该模块 。对于代码执行超时问题,如果是使用 docker-compose 方式部署的,直接修改.env 文件,将 “SANDBOX_WORKER_TIMEOUT=15” 和 “CODE_EXECUTION_READ_TIMEOUT=60” 修改为更大的值,比如 “SANDBOX_WORKER_TIMEOUT=300” 和 “CODE_EXECUTION_READ_TIMEOUT=300” 。如果是 k8s 部署的,修改全局 configMap 配置 ,修改完成后重启 sandox 组件即可 。

七、总结与展望

通过以上步骤,我们成功搭建了一个简单的 Dify 智能问答应用,整个过程虽有挑战,但充满乐趣和成就感。从确定需求、选择模型,到构建工作流、测试优化,每一步都让我们更深入地了解 Dify 的强大功能 。它就像一个神奇的魔法盒,为我们打开了通往 AI 应用开发新世界的大门,让博主也能轻松涉足这个曾经看似遥不可及的领域 。

Dify 为我们提供了无限的创作可能,无论是开发智能客服、内容创作助手,还是其他各种创新的 AI 应用,它都能成为我们的得力助手 。而且,随着技术的不断发展和 Dify 的持续更新,未来它将拥有更多强大的功能和更广泛的应用场景 。比如,在多模态融合方面,Dify 或许会支持更多类型的数据输入,如图像、音频等,让应用能够实现更智能的交互 。在模型优化上,也可能会不断引入更先进的模型和算法,提升应用的性能和效果 。

在这里,我鼓励大家继续探索 Dify 的更多高级功能和应用场景,将其与自己的专业领域、兴趣爱好相结合,创造出更多有价值、有趣的 AI 应用 。相信在这个过程中,大家会不断发现 Dify 的惊喜之处,收获满满的技术成长和创新成果 。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐