Ollama 离线安装
Ollama 离线安装
在线安装参考 https://ollama.com/
加速脚本下载:
curl -fsSL https://fastscript.netlify.app/ai/ollama-install.sh | sh
步骤1:查看服务器CPU的型号
选择对应版本的安装包(当前CPU架构为x86,选择amd的版本),复制链接使用镜像加速下载
x86_64 CPU选择下载ollama-linux-amd64 aarch64|arm64 CPU选择下载ollama-linux-arm64
下载地址:https://github.com/ollama/ollama/releases
加速地址:https://moeyy.cn/gh-proxy
git lfs installgit clone https://www.modelscope.cn/qwen/Qwen2-7B.gitshell
步骤2:离线下载Linux环境的Ollama安装脚本,并保存到**/home/Ollama**目录
1 | # 下载地址1,浏览器中打开下面地址 |
步骤3:修改install.sh脚本
总共需要修改两个点,第一:Ollama下载地址;第二:Ollama安装包存放目录
第一处修改,注释下载链接
1 | status "Downloading ollama..." |
第二处修改,修改ollama安装目录
1 | status "Installing ollama to $BINDIR..." |
步骤4:运行 install.sh脚本 ,安装
1 | 执行installl.sh脚本,需要sudo 权限 chmod +x install.sh |
步骤5:配置大模型下载目录
1 | 执行命令 |
步骤6:运行大模型,如通义千问
需要先将大模型下载到OLLAMA_MODELS文件中
ollama run <模型名称>
ollama run qwen2:7b
步骤7:关闭 Ollama 服务
关闭ollama服务
service ollama stop
放行IP端口
通过调用sudo systemctl edit ollama.service编辑 systemd 服务。
- 对于每个环境变量,在
[Service]部分下添加Environment:
1 | [Service] |
保存并退出。
重载
systemd并重启 Ollama:
1 | sudo systemctl daemon-reload |
方式二:
直接编辑环境变量
nano ~/.bashrc
添加如下内容:
[Service]
Environment=”OLLAMA_HOST=0.0.0.0”
Environment=”OLLAMA_ORIGINS=*“
Ollama 环境变量
| 环境变量 | 描述 | 默认值 | 附加说明 |
|---|---|---|---|
OLLAMA_HOST | 绑定的主机和端口 | “127.0.0.1:11434” | 设置 0.0.0.0: 端口号 可以指定所有人访问特定端口 |
OLLAMA_ORIGINS | 允许的跨域源列表,逗号分隔 | 仅本地访问 | 设置 “*“ 可以避免 CORS 跨域错误,按需设置 |
OLLAMA_MODELS | 模型存放的路径 | “~/.ollama/models” 或 “/usr/share/ollama/.ollama/models” | 按需指定 |
OLLAMA_KEEP_ALIVE | 模型在显存中保持加载的持续时间 | “5m” | 按需加载和释放显存可以有效降低显卡压力,但会增加硬盘读写 |
OLLAMA_DEBUG | 设置为 1 以启用额外的调试日志 | 默认关闭 |
完整install.sh


