22
33d.run 模型中心支持接入 [ HuggingFace Transformers] ( https://huggingface.co/models ) 上托管的各种生成式 Transformer 模型。
44
5- 以下是目前支持的模型架构列表。
5+ 以下是目前支持的模型架构列表:
66
77| 架构 | 模型 | HuggingFace 模型示例 | ` LoRA <lora> ` |
88| --- | ----- | ------------------- | ------------- |
@@ -37,6 +37,30 @@ d.run 模型中心支持接入 [HuggingFace Transformers](https://huggingface.co
3737| ` Qwen2MoeForCausalLM ` | Qwen2MoE | ` Qwen/Qwen1.5-MoE-A2.7B ` , ` Qwen/Qwen1.5-MoE-A2.7B-Chat ` 等 | |
3838| ` StableLmForCausalLM ` | StableLM | ` stabilityai/stablelm-3b-4e1t/ ` , ` stabilityai/stablelm-base-alpha-7b-v2 ` 等 | |
3939
40+ 多模态语言模型列表:
41+
42+ | 模型类型 | 架构 | 模态 | 示例 HuggingFace 模型 | LoRA 支持 |
43+ | ----------| -----| ------| ------------------------| -----------|
44+ | ` Blip2ForConditionalGeneration ` | BLIP-2 | 图像生成 (ImageE) | ` Salesforce/blip2-opt-2.7b ` , ` Salesforce/blip2-opt-6.7b ` 等 | ✅ |
45+ | ` ChameleonForConditionalGeneration ` | Chameleon | 图像生成 (Image) | ` facebook/chameleon-7b ` 等 | ✅ |
46+ | ` FuyuForCausalLM ` | Fuyu | 图像生成 (Image) | ` adept/fuyu-8b ` 等 | ✅ |
47+ | ` ChatGLMModel ` | GLM-4V | 图像生成 (Image) | ` THUDM/glm-4v-9b ` 等 | ✅ |
48+ | ` InternVLChatModel ` | InternVL2 | 图像增强 (ImageE+) | ` OpenGVLab/InternVL2-4B ` , ` OpenGVLab/InternVL2-8B ` 等 | ✅ |
49+ | ` LlavaForConditionalGeneration ` | LLaVA-1.5 | 图像增强 (ImageE+) | ` llava-hf/llava-1.5-7b-hf ` , ` llava-hf/llava-1.5-13b-hf ` 等 | ✅ |
50+ | ` LlavaNextForConditionalGeneration ` | LLaVA-NeXT | 图像增强 (ImageE+) | ` llava-hf/llava-v1.6-mistral-7b-hf ` 等 | ✅ |
51+ | ` LlavaNextVideoForConditionalGeneration ` | LLaVA-NeXT-Video | 视频生成 (Video) | ` llava-hf/LLaVA-NeXT-Video-7B-hf ` 等 | ✅ |
52+ | ` LlavaOnevisionForConditionalGeneration ` | LLaVA-Onevision | 图像 + 视频 (Image+ / Video) | ` llava-hf/llava-onevision-qwen2-7b-ov-hf ` 等 | ✅ |
53+ | ` MiniCPMV ` | MiniCPM-V | 图像增强 (ImageE+) | ` openbmb/MiniCPM-V-2 ` , ` openbmb/MiniCPM-Llama3-V-2_5 ` 等 | ✅ |
54+ | ` MllamaForConditionalGeneration ` | Llama 3.2 | 图像 (Image) | ` meta-llama/Llama-3.2-90B-Vision-Instruct ` 等 | |
55+ | ` MolmoForCausalLM ` | Molmo | 图像 (Image) | ` allenai/Molmo-7B-D-0924 ` 等 | ✅ |
56+ | ` NVLM_D_Model ` | NVLM-D 1.0 | 图像增强 (ImageE+) | ` nvidia/NVLM-D-72B ` 等 | ✅ |
57+ | ` PaliGemmaForConditionalGeneration ` | PaliGemma | 图像增强 (ImageE) | ` google/paligemma-3b-pt-224 ` 等 | ✅ |
58+ | ` Phi3VForCausalLM ` | Phi-3-Vision / Phi-3.5-Vision | 图像增强 (ImageE+) | ` microsoft/Phi-3-vision-128k-instruct ` 等 | ✅ |
59+ | ` PixtralForConditionalGeneration ` | Pixtral | 图像增强 (Image+) | ` mistralai/Pixtral-12B-2409 ` | ✅ |
60+ | ` QWenLMHeadModel ` | Qwen-VL | 图像增强 (ImageE+) | ` Qwen/Qwen-VL ` , ` Qwen/Qwen-VL-Chat ` | ✅ |
61+ | ` Qwen2VLForConditionalGeneration ` | Qwen2-VL | 图像增强 + 视频生成 (ImageE+ / Video+) | ` Qwen/Qwen2-VL-7B-Instruct ` 等 | ✅ |
62+ | ` UltravoxModel ` | Ultravox | 音频增强 (AudioE+) | ` fixie-ai/ultravox-v0_3 ` | ✅ |
63+
4064## 如何为模型构建镜像
4165
4266以下是完整的指导流程,包含拉取模型、构建 Docker 镜像、配置私有仓库,以及将镜像推送到自定义仓库的步骤。
@@ -49,9 +73,9 @@ d.run 模型中心支持接入 [HuggingFace Transformers](https://huggingface.co
49732 . 找到目标模型,例如 "chatglm3-6b"
50743 . 复制模型的 Git URL 以用于克隆,例如:
5175
52- ``` bash
53- https://huggingface.co/THUDM/chatglm3-6b
54- ```
76+ ``` bash
77+ https://huggingface.co/THUDM/chatglm3-6b
78+ ```
5579
5680# ### Clone 模型
5781
@@ -107,7 +131,7 @@ ENTRYPOINT ["python3", "-m", "vllm.entrypoints.openai.api_server", "--model", "/
107131docker build -t vllm-openai-tiktoken-chatglm3-6b-server:v2.0.1 -f /data/chatglm3-6b/Dockerfile /data/llms/chatglm3-6b
108132` ` `
109133
110- 为了减小镜像大小,确保 .dockerignore 文件在 /data/llms/chatglm3-6b 目录中,并且其中包含需要忽略的文件或目录,如:
134+ 为了减小镜像大小,确保 ` .dockerignore` 文件在 ` /data/llms/chatglm3-6b` 目录中,并且其中包含需要忽略的文件或目录,如:
111135
112136` ` ` plaintext
113137.git
@@ -145,3 +169,76 @@ docker push myregistry.example.com/vllm-openai-tiktoken-chatglm3-6b-server
145169# ### 验证推送成功
146170
147171确认推送成功后,可以在 Docker 仓库的仪表盘上查看已推送的镜像。
172+
173+ # # 使用挂载模型文件的方式接入模型
174+
175+ # # 步骤 1:将模型文件上传到 MinIO
176+
177+ 1. ** 克隆模型文件到主机**
178+ 将模型文件复制或克隆到任意一台可访问 MinIO 的主机上。
179+
180+ 2. ** 下载 ` mc` 客户端工具**
181+ 运行以下命令下载 MinIO 客户端工具 ` mc` :
182+
183+ ` ` ` bash
184+ curl https://dl.min.io/client/mc/release/linux-amd64/mc \
185+ --create-dirs \
186+ -o $HOME /minio-binaries/mc
187+
188+ chmod +x $HOME /minio-binaries/mc
189+ export PATH=$PATH :$HOME /minio-binaries/
190+ mc --help
191+ ` ` `
192+
193+ 3. ** 登录 MinIO**
194+ 使用以下命令配置 MinIO 连接信息:
195+
196+ ` ` ` bash
197+ mc alias set ALIAS HOSTNAME ACCESS_KEY SECRET_KEY
198+ ` ` `
199+
200+ - ** ALIAS** :自定义 MinIO 名称,用于后续操作
201+ - ** HOSTNAME** :MinIO 服务地址(例如:http://10.33.2.23:31372)
202+ - ** ACCESS_KEY** :MinIO 用户名
203+ - ** SECRET_KEY** :MinIO 密码
204+
205+ ** 示例** :
206+
207+ ` ` ` bash
208+ mc alias set myminio http://10.33.2.23:31372 minio minio123456
209+ ` ` `
210+
211+ 4. ** 推送文件到 MinIO**
212+
213+ - ** 创建 Bucket** :
214+
215+ ` ` ` bash
216+ mc mb myminio/llms
217+ ` ` `
218+
219+ > 如果 Bucket 已存在,可以通过 ` mc ls myminio` 检查是否存在。
220+
221+ - ** 上传模型文件** :
222+
223+ 以 ` chatglm3-6b` 为例:
224+
225+ ` ` ` bash
226+ mc cp chatglm3-6b myminio/llms --recursive
227+ ` ` `
228+
229+ # # 步骤 2:在模型中心加载模型
230+
231+ 1. ** 进入模型中心**
232+ 在 DAK 的模型中心选择“接入模型”。
233+
234+ 2. ** 选择加载方式为“文件挂载”**
235+
236+ 3. ** 填写模型路径**
237+ 按照模型在工作节点的挂载目录填写路径。例如,` chatglm3-6b` 模型挂载后的路径为:
238+
239+ ` ` ` text
240+ /root/llms/chatglm3-6b
241+ ` ` `
242+
243+ 4. ** 提交模型路径配置**
244+ 现在,模型已经成功加载,模型中心会从挂载目录中获取文件进行使用。
0 commit comments