Linux
安装
要安装 Ollama,请运行以下命令:
curl -fsSL https://ollama.com/install.sh | sh手动安装
下载并解压包:
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz开始 Ollama:
ollama serve在另一个终端中,验证 Ollama 是否正在运行:
ollama -v安装 AMD GPU
如果你有 AMD GPU,还需要下载并解压额外的 ROCm 包:
curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz
sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgzARM64 安装
下载并解压 ARM64 专用包:
curl -L https://ollama.com/download/ollama-linux-arm64.tgz -o ollama-linux-arm64.tgz
sudo tar -C /usr -xzf ollama-linux-arm64.tgz添加 Ollama 为启动服务(推荐)
创建 Ollama 的用户和组:
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)在 /etc/systemd/system/ 目录下创建一个服务文件 ollama.service:
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
[Install]
WantedBy=default.target然后启动服务:
sudo systemctl daemon-reload
sudo systemctl enable ollama安装 CUDA 驱动(可选)
下载并安装 CUDA。
通过运行以下命令验证驱动是否已安装,该命令应打印有关你的 GPU 的详细信息:
nvidia-smi安装 AMD ROCm 驱动(可选)
下载并安装 ROCm v6。
启动 Ollama
启动 Ollama 并验证其是否正在运行:
sudo systemctl start ollama
sudo systemctl status ollamaNOTE
虽然 AMD 已将 amdgpu 驱动程序贡献给了官方的 Linux 内核源代码,但该版本较旧,可能不支持所有 ROCm 功能。我们建议你从 https://www.amd.com/en/support/linux-drivers 安装最新驱动程序,以获得对你 Radeon GPU 的最佳支持。
自定义
要自定义 Ollama 的安装,你可以通过运行以下命令来编辑 systemd 服务文件或环境变量:
sudo systemctl edit ollama或者,手动在 /etc/systemd/system/ollama.service.d/override.conf 创建一个覆盖文件:
[Service]
Environment="OLLAMA_DEBUG=1"更新
通过再次运行安装脚本来更新 Ollama:
curl -fsSL https://ollama.com/install.sh | sh或者重新下载 Ollama:
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz安装特定版本
使用 OLLAMA_VERSION 环境变量与安装脚本来安装 Ollama 的特定版本,包括预发布版本。你可以在 发布页面 找到版本号。
例如:
curl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.3.9 sh查看日志
要查看 Ollama 作为启动服务运行的日志,请运行:
journalctl -e -u ollama卸载
移除 ollama 服务:
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service从你的 bin 目录(通常是 /usr/local/bin、/usr/bin 或 /bin)中删除 ollama 二进制文件:
sudo rm $(which ollama)移除下载的模型和 Ollama 服务用户及用户组:
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama