随着DeepSeek的火热,市面上出现大量的第三方的API服务区,但是对于对安全、隐私、控制有一定需求的用户,还是会希望能够自主部署DeepSeek 。

实践下来,用自己的机器部署是一条解决之道,但是推理起来,cpu和内存占用很多,非常影响同时其它软件的操作。飞桨星河社区新推出了DeepSeek部署服务,操作简单,只需要点两下鼠标,可以部署1.5b - 70b之间的几个模型。

飞桨星河社区一键部署DeepSeek-r1:70b模型

首先进入星河社区的模型部署页面:飞桨AI Studio星河社区-人工智能学习与实训社区

点击新建部署,选择DeepSeek-r1:70b模型,然后点击部署,

稍等一会儿,就部署成功了!

点击详情,可以看到部署信息:

服务URL:https://api-b4v8damcv97cu8dc.aistudio-app.com

运行中 私有

创建时间 2025-02-22 22:46:25

未调用时长 0小时

调用次数 0

点使用,就自动出来调用api代码,当然这里的api_key已经马赛克了,实际情况下AIStudio会自动加上自己的key,这点非常贴心。

部署模型的api调用代码:

# pip install openai
from openai import OpenAI

client = OpenAI(
    api_key="apikey,AIStudio会自动加上自己的key",
    base_url="https://api-b4v8damcv97cu8dc.aistudio-app.com/v1"
)

completion = client.chat.completions.create(
    model="deepseek-r1:70b",
    temperature=0.6,
    messages=[
        {"role": "user", "content": "你好,请介绍一下你自己"}
    ],
    stream=True
)

for chunk in completion:
    if hasattr(chunk.choices[0].delta, "reasoning_content") and chunk.choices[0].delta.reasoning_content:
        print(chunk.choices[0].delta.reasoning_content, end="", flush=True)
    else:
        print(chunk.choices[0].delta.content, end="", flush=True)

输出信息:

<think>
您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。
</think>

您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。>>>

这样使用起来太方便啦!

总结

从创建页面可以看到,星河社区部署使用了Ollama部署DeepSeek,操作非常简单,就是点两次鼠标。

尽管现在很容易就能用到各家的免费DeepSeek web或API服务,但是自己部署,完全自己可控的DeepSeek api服务,还是非常不错的。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐