Files
compose-anything/src/ollama/README.zh.md
2025-12-11 14:11:37 +08:00

1.4 KiB
Raw Blame History

Ollama

English | 中文

此服务用于部署 Ollama本地运行大语言模型。

用法

  • 拉取 DeepSeek R1 7B 模型:

    docker exec -it ollama-ollama-1 ollama pull deepseek-r1:7b
    
  • 列出本地所有模型:

    docker exec -it ollama-ollama-1 ollama list
    
  • 通过 API 获取本地所有模型:

    curl http://localhost:11434/api/tags 2> /dev/null | jq
    

服务

  • ollama: Ollama 服务。

配置

  • OLLAMA_VERSION: Ollama 镜像的版本,默认为 0.12.0
  • OLLAMA_PORT_OVERRIDE: Ollama 的主机端口,默认为 11434

  • ollama_models: 用于存储 Ollama 模型的卷。

故障排除

长时间运行后 GPU 离线Linux Docker

如果 Ollama 在 Docker 容器中最初可以正常使用 GPU但运行一段时间后切换到 CPU 运行,且服务器日志中报告 GPU 发现失败的错误,可以通过禁用 Docker 的 systemd cgroup 管理来解决此问题。

编辑主机上的 /etc/docker/daemon.json 文件,添加 "exec-opts": ["native.cgroupdriver=cgroupfs"] 到 Docker 配置中:

{
  "exec-opts": ["native.cgroupdriver=cgroupfs"]
}

然后重启 Docker

sudo systemctl restart docker

更多详情请参阅 Ollama 故障排除 - Linux Docker