一、国内Linux环境加速下载ollama

export OLLAMA_MIRROR="https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download"
curl -fsSL https://ollama.com/install.sh | sed "s|https://ollama.com/download|$OLLAMA_MIRROR|g" | sh

参考:Ollama国内Linux服务器安装超时、失败问题解决-腾讯云开发者社区-腾讯云

二、修改Ollama默认model保存位置

step1: 设置环境变量(之后需重启ollma服务)

        export OLLAMA_MODELS="yourpath"

step2:重启ollama服务

        ollama serve stop && ollama serve

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐