Files
compose-anything/src/ollama/README.zh.md
2025-09-24 14:16:10 +08:00

695 B
Raw Blame History

Ollama

English | 中文

此服务用于部署 Ollama本地运行大语言模型。

用法

  • 拉取 DeepSeek R1 7B 模型:

    docker exec -it ollama ollama pull deepseek-r1:7b
    
  • 列出本地所有模型:

    docker exec -it ollama ollama list
    
  • 通过 API 获取本地所有模型:

    curl http://localhost:11434/api/tags 2> /dev/null | jq
    

服务

  • ollama: Ollama 服务。

配置

  • OLLAMA_VERSION: Ollama 镜像的版本,默认为 0.12.0
  • OLLAMA_PORT_OVERRIDE: Ollama 的主机端口,默认为 11434

  • ollama_models: 用于存储 Ollama 模型的卷。