Files
compose-anything/src/lmdeploy/README.zh.md
2026-01-22 10:48:31 +08:00

1.3 KiB
Raw Permalink Blame History

LMDeploy Docker Compose

LMDeploy 是一个用于压缩、部署和服务大语言模型LLM的工具包。

快速开始

  1. (可选)在 .env 中配置模型和端口。

  2. 启动服务:

    docker compose up -d
    
  3. 通过 http://localhost:23333/v1 访问与 OpenAI 兼容的 API。

配置项

环境变量 默认值 说明
LMDEPLOY_VERSION v0.11.1-cu12.8 LMDeploy 镜像版本
LMDEPLOY_PORT_OVERRIDE 23333 API 服务器的主机端口
LMDEPLOY_MODEL internlm/internlm2-chat-1_8b HuggingFace 模型 ID 或本地路径
HF_TOKEN 用于访问私有模型的 HuggingFace Token

健康检查

该配置包含健康检查,用于验证 OpenAI /v1/models 接口是否响应。

GPU 支持

默认情况下,此配置会预留 1 个 NVIDIA GPU。请确保您的主机已安装 NVIDIA Container Toolkit