告别 GPT-4!教你用 DeepSeek 搭建私人 AI 编程助手,0 成本把数据握在自己手里,后面有教如何使用gemini3 pro api
(痛点描述) 还在为 ChatGPT 的 Plus 会员费心疼?还在担心公司敏感代码传到云端泄露?2025 年了,DeepSeek 的能力已经不仅是“够用”,而是“惊艳”。本文带你手把手,10分钟在本地笔记本上搭建一套基于 DeepSeek + Ollama 的私人知识库。对于开发者,最后教如何使用gemini3 pro api,针对python和java
前言:为什么要本地化?
(痛点描述) 还在为 ChatGPT 的 Plus 会员费心疼?还在担心公司敏感代码传到云端泄露?2025 年了,DeepSeek 的能力已经不仅是“够用”,而是“惊艳”。本文带你手把手,10分钟在本地笔记本上搭建一套基于 DeepSeek + Ollama 的私人知识库。
对于开发者,最后教如何使用gemini3 pro api,针对python和java
2. 核心架构图解
-
模型层: Ollama (管理 DeepSeek 模型)
-
交互层: AnythingLLM (或 Dify,提供 UI 和 向量数据库管理)
-
数据层: 本地 Markdown/PDF 文档
3. 第一步:Ollama 极速安装与模型拉取
-
展示下载命令。
-
关键代码:
# 安装完成后,终端输入以下命令拉取 DeepSeek Coder V2 (或最新 V3) ollama run deepseek-coder:33b # 验证是否运行成功 curl http://localhost:11434/api/generate -d '{ "model": "deepseek-coder:33b", "prompt": "用 Python 写一个贪吃蛇游戏" }'
4. 第二步:配置 AnythingLLM (投喂知识)
-
图文演示如何下载桌面版 AnythingLLM。
-
在设置中选择
Ollama作为推理引擎,输入http://localhost:11434。 -
实战演示: 上传一份《公司内部开发规范.pdf》,然后提问:“我们公司的代码注释规范是什么?”
-
截图展示 AI 准确读取文档并回答的过程。
5. 第三步:进阶——通过 API 调用你的本地模型
-
对于想做二次开发的同学,提供一段 Python 代码示例(使用 LangChain):
from langchain_community.llms import Ollama llm = Ollama(model="deepseek-coder:33b") response = llm.invoke("如何优化 Solidity 智能合约的 Gas 消耗?") print(response)
6. 总结
-
对比云端 API 的成本(0元 vs 昂贵 Token)。
-
强调数据的绝对隐私。
-
文末福利: 关注博主,私信“DeepSeek”获取本文用到的所有安装包百度云链接(增加粉丝粘性)。
7. 白嫖gemini3 pro使用其api
第一步:白嫖gemini3 pro:白嫖gemini 3 pro方法-CSDN博客
第二步:python的安装Google GenAI SDK,java引用依赖
pip install -q -U google-genai
<dependencies>
<dependency>
<groupId>com.google.genai</groupId>
<artifactId>google-genai</artifactId>
<version>1.0.0</version>
</dependency>
</dependencies>
第三步:提交一个请求
python
from google import genai
# The client gets the API key from the environment variable `GEMINI_API_KEY`.
client = genai.Client()
response = client.models.generate_content(
model="gemini-2.5-flash", contents="Explain how AI works in a few words"
)
print(response.text)
java
package com.example;
import com.google.genai.Client;
import com.google.genai.types.GenerateContentResponse;
public class GenerateTextFromTextInput {
public static void main(String[] args) {
// The client gets the API key from the environment variable `GEMINI_API_KEY`.
Client client = new Client();
GenerateContentResponse response =
client.models.generateContent(
"gemini-2.5-flash",
"Explain how AI works in a few words",
null);
System.out.println(response.text());
}
}
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)