类型
状态
日期
链接
摘要
标签
分类
图标
密码
😀 混元大模型是当前最好的AI视频生成模型之一,今天在ComfyUI上部署一次混元工作流。
1 环境准备
- 浏览器打开Cloud Studio的官网Cloud Studio
- 使用微信等账号登录网站后,点击“高性能工作空间”

- 点击右侧“新建”按钮。

- 选择“基础型”或“HAI进阶型”。基础性每个月10000分钟免费时长。

- 输入“空间名称”以及选择“应用模版”为
Pytorch2.0.0
后点击“新建”。

- 待新建的空间显示“运行中”后点击名称,跳转IDE环境。

2 部署前环境检查
- 点击IDE环境顶部“终端”>“新建终端”。

- 在弹出的终端界面,输入
nvidia-smi
检查显卡型号、CUDA版本等信息。
3 部署服务
3.1 配置环境
本案例依赖Python3.10.10及以上环境,因此我们首先创建虚拟环境:
3.2 安装基础依赖库
3.3 拉取ComfyUI软件包
3.4 安装ComfyUI依赖库
3.5 拉取工作流模板
3.6 安装插件
3.7 下载混元大模型
Transformer Weights:https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_720_cfgdistill_bf16.safetensors (25.6GB)或者
https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_720_cfgdistill_fp8_e4m3fn.safetensors (13.2GB)
放在目录:
ComfyUI/models/diffusion_models/
下VAE:https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_vae_bf16.safetensors (493mb)或者
https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_vae_fp32.safetensors (986mb)
放在目录:
ComfyUI/models/vae/
下LLM Text Encoder (has autodownload)https://huggingface.co/Kijai/llava-llama-3-8b-text-encoder-tokenizer (~10GB)
放在目录
ComfyUI/models/LLM/llava-llama-3-8b-text-encoder-tokenizer/
目录下CLIP text encoder
放在目录
ComfyUI/models/clip/clip-vit-large-patch14/
下3.8 启动服务
3.9 映射外部访问地址
4 打开ComfyUI面板
5 导入混元工作流
6 AI创作

7 一键脚本
免责声明:
- 笔者水平有限,尽管经过多次验证和检查,尽力确保内容的准确性,但仍可能存在疏漏之处。敬请业界专家大佬不吝指教。
- 本文所述内容仅通过实战环境验证测试,读者可学习、借鉴,但严禁直接用于生产环境。由此引发的任何问题,作者概不负责!
- 作者:Cloud1024
- 链接:https://itq5.com/posts/ai_hunyuan
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。