LangGraph全生态工具实战:从零到1部署AI智能体应用,小白也能轻松上手!
文章介绍了LangGraph全生态开发工具,包括LangSmith监控框架、LangGraph Studio可视化IDE和LangGraph Cli部署工具等,详细展示了从零开始创建、调试和部署智能体项目的完整流程。通过实战操作,读者可学习构建天气助手智能体,利用这些工具进行可视化调试和性能监控,最终实现智能体应用的本地部署。
一、LangGraph全生态开发工具回顾
1.1 LangGraph运行监控框架:LangSmith
LangSmith的官网地址:https://docs.smith.langchain.com/
LangSmith是一款用于构建、调试、可视化和评估大模型工作流的全生命周期开发平台。LangSmith的主要工作不是聚焦大模型智能体构建,而是聚焦于我们构建AI应用时的调试、性能评估与运维监测。

1.2 LangGraph图结构可视化与调试框架:LangGraph Studio
LangGraph Studio的官网地址:https://www.langgraph.dev/studio
LangGraph Studio 是一个用于可视化构建、测试、分享和部署智能体流程图的图形化 IDE + 运行平台。我们可以使用LangGraph Studio拖拽的方式(包括使用工具、模型、路由组件)零代码构建智能体,也经常使用可视化调试图智能体的功能。

1.3 LangGraph服务部署工具:LangGraph Cli
LangGraph Cli官网地址:https://www.langgraph.dev/ (需要代理环境)
LangGraph Cli 是用于本地启动、调试、测试和托管 LangGraph 图智能体的开发者命令行工具。我们通常在智能体搭建完成后一键部署应用。而一旦应用部署上线,LangGraph Cli还会非常贴心的提供后端接口说明文档。除了能够本地部署,LangGraph Cli也提供云端托管服务,开发者可以将构建的智能体 Graph部署到云端,并允许公开访问,同时支持支持长时间运行、文件上传、外部 API 调用、Studio 集成等功能。

1.4 LangGraph Agetn前端可视化工具: Agent Chat UI
Agent Chat UI官网地址:https://langchain-ai.github.io/langgraph/agents/ui/
Agent Chat UI是LangGraph/LangChain 官方提供的多智能体前端对话面板,用于与后端 Agent(Graph 或 Chain)进行实时互动,支持上传文件、多工具协同、结构化输出、多轮对话、调试标注等功能。 Agent Chat UI因其便捷的接入常常作为LangGraph 应用的首选。

1.5 LangGraph全生态开发工具关系解析
LangGraph Studio是官方专门为LangGraph可视化搭建打造的本地/云端IDE,具备可视化节点和状态、拖拽式搭建、可视化调试、快速部署等功能。LangGraph Studio在本地可视化运行时会自动把调用过程上传到LangSmith;而在LangSmith网页端我们可以追踪任何的日志记录Trace, 又能一键Run in Studio回放整条执行链,所以说LangGraph Studio与LangSmith通过统一的Trace SDK紧密集成。
LangGraph Cli中集成了LangGraph Studio, 同时制定了智能体的开发和部署规范,用户可以通过LangGraph Cli快速创建项目架构开发部署,同时与LangSmith关联。
大家可以思考一下:基于LangGraph框架可以开发出各种复杂的智能体,那么这些智能体在生产中是如何部署运行的呢?解决方法就是把它们部署成一个Server,其它应用可以通过Python/JavaScript SDK接口直接和服务进行连接调用,完整架构如下:

二、 创建完整LangGraph智能体项目流程
说了这么多不如实战操作一次,接下来笔者将详细分享如何使用LangGraph Cli来创建一个完整的LangGraph Agent项目,在此过程中将使用LangGraph Studio进行架构实时演示并使用LangSmith进行运行效果监督。必须要说明的是,如果想把我们定义的Graph添加到LangGraph Studio中,需要严格按照官方要求的项目结构进行构型,详细步骤如下
2.1 Step1:创建项目文件夹和依赖文件
首先创建一个langgraph_chatbot文件夹,并在其中新建一个requirements.txt文件,里面填写运行项目时需要的依赖项,如下所示:
langgraph
langchain-core
langchain-deepseek
python-dotenv
langsmith
pydantic
matplotlib
seaborn
pandas
IPython
langchain_mcp_adapters
uv

2.2 Step2: 注册LangSmith
为了更好的监控智能体实时运行情况,我们可以考虑借助LangSmith进行追踪(会将智能体运行情况实时上传到LangGraph官网并进行展示)。要开始使用LangSmith, 我们需要创建一个账户,LangSmith支持使用Github注册并登录,登录页面在https://smith.langchain.com/


在构建程序跟踪前,首先需要创建一个API密钥,该密钥将允许我们的项目开始向LangSmith发送跟踪数据,按照下图我们首先点击Set up tracing设置追踪按钮,然后选择LangGraph框架,点击Generate API Key生成密钥。创建完密钥后,在后续配置环境变量环节设置开启追踪,并输入密钥即可接入LangSmith。



2.3 Step3: 创建配置文件
在langgraph_chatbot文件夹中,新建一个.env文件,将敏感信息(如API密钥)放在环境变量中而不是硬编码(注意: 确保字段名称和下方一致,DEEPSEEK_API_KEY和LANGSMITH相关api可以被langgrapn自动识别)。
DEEPSEEK_API_KEY='你注册的deepseek api key'
WEATHER_API_KEY='你注册的心知天气api key'
LANGSMITH_TRACING=true
LANGSMITH_API_KEY='你注册的langsmith api key'
LANGSMITH_PROJECT=langgraph_studio_chatbot

2.4 Step4: 创建graph.py核心文件
在langgraph_chatbot文件夹中,新建一个graph.py文件、该文件中编写构建图的具体逻辑,这里我们将利用预构建图API编写天气助手的代码填进去。在我们之后学习LangGraph底层API后,也可以自定义状态、节点、边、图的编译代码,并写入该文件中。(特别注意: 代码中要将init_chat_model方法替换为ChatDeepSeek方法,因为init_chat_model会存在异步堵塞问题。) 同时在使用LangGraph CLI创建智能体项目时,会自动设置记忆相关内容,并进行持久化记忆存储,无需手动设置。全部代码如下:
import os
from dotenv import load_dotenv
from langchain_deepseek import ChatDeepSeek
from langgraph.prebuilt import create_react_agent
from langchain_core.tools import tool
from pydantic import BaseModel, Field
import requests, json
# 加载环境变量
load_dotenv(override=True)
class WeatherQuery(BaseModel):
loc: str = Field(description="城市名称")
@tool(args_schema=WeatherQuery)
def get_weather(loc):
"""
查询即时天气函数
:param loc: 必要参数,字符串类型,用于表示查询天气的具体城市名称,\
:return:心知天气 API查询即时天气的结果,具体URL请求地址为:"https://api.seniverse.com/v3/weather/now.json"
返回结果对象类型为解析之后的JSON格式对象,并用字符串形式进行表示,其中包含了全部重要的天气信息
"""
url = "https://api.seniverse.com/v3/weather/now.json"
params = {
"key": os.getenv('WEATHER_API_KEY'),
"location": loc,
"language": "zh-Hans",
"unit": "c",
}
response = requests.get(url, params=params)
temperature = response.json()
return temperature['results'][0]['now']
tools = [get_weather]
# 创建模型
model = ChatDeepSeek(model="deepseek-chat")
# 创建图
graph = create_react_agent(model=model, tools=tools)
2.5 Step5: 创建langgraph.json文件
在langgraph_chatbot文件夹中,新建一个langgraph.json文件,在该json文件中配置项目信息,遵循如下所示的规范:
-
必须包含
dependencies和graphs字段 -
graphs字段格式:“图名”: “文件路径:变量名”
-
配置文件必须放在与Python文件同级或更高级的目录
( 注意: 项目文件的名称必须为langgraph.json)。
文件中的配置项如下:
-
dependencies:
指定LangGraph项目依赖项(requirements.txt)所在的目录。
-
graphs:
定义图名
chatbot,以及指定图变量的名称和所属的python文件。 -
env:
指定环境变量文件路径
最终项目结构和文件内容如下:

Step6: 安装langgraph-cli及其依赖
安装langgraph-cli依赖,在anaconda虚拟环境langgraphenv中执行pip install -U "langgraph-cli[inmem]"命令:

然后进入到langgraph_chatbot文件夹中执行pip install -r requirements.txt安装相关依赖。

最后我们在langgraph_chatbot文件夹下执行langgraph dev命令启动项目,启动之后可以看到三个链接,第一个链接是当前部署完成后的服务端口,第二个是LangGraph Studio的可视化页面,其中第三个端口是端口的说明文档。

三、LangGraph全家桶简单测试使用
下面我们就来访问一下这些链接:
3.1 后端服务接口
我们首先点击第三个链接,其中包含了详细的接口调用方法,这些暴露的接口调用方法可以用于进一步的开发测试。

3.2 LangGraph Studio 可视化调试
然后我们点击第二个也就是Studio UI中显示的链接,在浏览器中打开并访问Studio, 如下图所示: (特别注意: 如果遇到谷歌浏览器显示下图错误,可以试着关闭谷歌浏览器的所有扩展项或者切换为edge浏览器):

正常界面显示如下:

我们可以在Input Messages中输入北京今天的天气如何?进行可视化调试:

3.3 LangSmith 追踪
因为我们之前配置时设置了LangSmith追踪,此时可以在LangSmith中查看到当前项目的运行情况,点击LangGraph Studio侧边栏的Tracing Projects按钮,然后点击我们的项目langgraph_studio_chatbot,可以看到LangSmith的调试记录:



四、总结
本期内容分享并实际操作了LangGraph的全流程开发生态,包括使用LangGraph Studio可视化调试我们的预构建图、LangSmith追踪图的调试信息和LangGraph Cli一键本地部署项目,希望大家可以参照笔者分享在PC上完整复现一遍加强对LangGraph开发生态的理解。
最后
为什么要学AI大模型
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
AI大模型系统学习路线
在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。
AI大模型入门到实战的视频教程+项目包
看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
海量AI大模型必读的经典书籍(PDF)
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
600+AI大模型报告(实时更新)
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
AI大模型面试真题+答案解析
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐



所有评论(0)