类型
状态
日期
链接
摘要
标签
分类
图标
密码
😀 就在2月25日,阿里开源了Wan2.1模型的模型文件和代码以及权重。今天咋们就使用CloudStudio是一个免费提供10000分钟的开箱及用的一个AI应用平台,可免费运行T4显卡,滴滴滴,快上车。
1 环境准备
- 浏览器打开Cloud Studio的官网Cloud Studio
- 使用微信等账号登录网站后,点击“高性能工作空间”

- 点击右侧“新建”按钮。

- 选择“基础型”或“HAI进阶型”。基础性每个月10000分钟免费时长。

- 输入“空间名称”以及选择“应用模版”为
Pytorch2.0.0
后点击“新建”。

- 待新建的空间显示“运行中”后点击名称,跳转IDE环境。

2 部署前环境检查
- 点击IDE环境顶部“终端”>“新建终端”。

- 在弹出的终端界面,输入
nvidia-smi
检查显卡型号、CUDA版本等信息。
3 部署ComfyUI项目
3.1 配置环境
本案例依赖Python3.11.11及以上环境,因此我们首先创建虚拟环境:
3.2 安装基础依赖库
3.3 配置加速
3.4 拉取ComfyUI软件包
3.5 安装ComfyUI依赖库
3.6 拉取工作流模板
3.7 安装插件
3.8 启动服务
4 打开ComfyUI面板
启动后默认监听8188端口,直接在空间地址例如
https://xxx.ap-singapore.cloudstudio.work/
修改成https://xxx--8188.ap-singapore.cloudstudio.work/
即可打开项目网站。5 加载Wan 2.1工作流
- 浏览器打开ComfyUI-WanVideoWrapper/example_workflows at main · kijai/ComfyUI-WanVideoWrapper可以看到有4个工作流。
wanvideo_480p_I2V_example_01.json
图片到视频wanvideo_T2V_example_01.json
文字到视频wanvideo_long_T2V_example_01.json
长文字到视频wanvideo_vid2vid_example_01.json
视频到视频
- 这里我们先演示
wanvideo_T2V_example_01.json
文字到视频,先下载这个工作流到本地。

- 工作流拖入ComfyUI面板中加载。

6 下载Wan2.1模型
- 执行如下命令,下载clip模型文件
- 执行如下命令,下载diffusion_models模型文件
- 执行如下命令,下载vae模型文件
- 如果是I2V则还需要导入clip_vision模型文件
7 工作流中模型确认
当模型都下载完成后,切换到工作流界面,将模型文件进行一一选择。
- clip模型选择

- diffusion_models模型选择

- vae模型选择

8 执行

9 预览视频

END
免责声明:
- 笔者水平有限,尽管经过多次验证和检查,尽力确保内容的准确性,但仍可能存在疏漏之处。敬请业界专家大佬不吝指教。
- 本文所述内容仅通过实战环境验证测试,读者可学习、借鉴,但严禁直接用于生产环境。由此引发的任何问题,作者概不负责!
- 作者:Cloud1024
- 链接:https://itq5.com/posts/comfyui_wan
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。