ComfyUI 安装与运行实战指南:构建你的可视化 AI 工作流
在 AI 创作工具层出不穷的今天,越来越多设计师、开发者和内容创作者开始尝试 Stable Diffusion 这类文生图模型。但你是否曾遇到过这样的困扰:想复现一张几天前生成的好图,却因为参数或步骤记不清而无从下手?又或者,你想把“先修复再重绘”、“多风格批量输出”这样的复杂流程自动化,却发现传统界面根本无法灵活支持?
这时候,ComfyUI就显得格外亮眼了。
它不像 Automatic1111 那样是点击按钮就能出图的“黑箱”,而更像一个可视化的 AI 实验室——每个处理环节都被拆解成独立节点,你可以用“搭积木”的方式自由组合提示词编码、采样器、ControlNet 控制、图像放大等模块。这种基于节点图的设计,不仅让整个生成过程完全透明可追溯,还极大提升了工作流的复用性和协作效率。
更重要的是,这一切都不需要写代码。拖拽连接即可完成高级定制,真正实现了“专业级控制”与“低门槛操作”的平衡。
要上手 ComfyUI,第一步当然是安装并成功运行起来。虽然官方没有提供一键安装包,但得益于其自带便携式 Python 环境的设计,整个部署过程其实比想象中简单得多。下面我们就从零开始,一步步带你把 ComfyUI 跑起来,并解决常见问题,确保你在不同设备上都能顺利进入主界面。
首先确认你的系统满足基本要求:
| 项目 | 推荐配置 |
|---|---|
| 操作系统 | Windows 10/11, Linux (Ubuntu 20.04+), macOS(Apple Silicon 更佳) |
| 显卡 | NVIDIA GPU(CUDA 支持,8GB 显存以上体验更佳) AMD 或 Apple M 系列可通过 CPU 或 Metal 后端运行 |
| Python 版本 | 无需手动安装,内置环境已包含 Python 3.10+ |
| 存储空间 | 至少 10GB 可用空间(用于存放模型文件和缓存) |
关键点在于:ComfyUI 是通过 GitHub 开源发布的,必须下载源码后本地运行。不过别担心,作者已经为你打包好了所有依赖所需的 Python 解释器和基础库,也就是说你不需要提前配置复杂的虚拟环境或安装 PyTorch。
下载 ComfyUI:推荐两种方式
前往官方仓库获取最新版本:
👉 https://github.com/comfyanonymous/ComfyUI
方法一:直接下载 ZIP(适合新手)
这是最简单的入门方式:
- 打开页面后点击绿色的“Code” → “Download ZIP”
- 下载完成后解压到一个全英文路径的目录,例如:
D:\AI\ComfyUI⚠️ 强烈建议避免中文或空格路径,否则可能导致模型加载失败。
这种方式适合只想快速试用的朋友,缺点是后续更新需要重新下载覆盖。
方法二:使用 Git 克隆(推荐进阶用户)
如果你打算长期使用并跟进新功能,建议用 Git:
git clone https://github.com/comfyanonymous/ComfyUI.git这样以后只需执行git pull即可一键升级到最新版,省时又安全。
解压或克隆完成后,你会看到类似以下结构的文件夹内容:
ComfyUI/ ├── main.py ├── web/ ├── models/ ├── input/ ├── output/ ├── python_embeded/ ← 内置 Python 环境 ├── run_nvidia_gpu.bat ← NVIDIA 显卡启动脚本 ├── run_cpu.bat ├── run_amd_linux.sh └── ...这些.bat和.sh文件就是不同平台下的启动入口。根据你的硬件选择合适的运行方式即可。
场景 1:NVIDIA 显卡用户(Windows + CUDA)
这是目前性能最强、最主流的使用场景。
只需双击运行:
run_nvidia_gpu.bat这个批处理脚本会自动完成以下任务:
- 启动内置的
python_embeded环境 - 首次运行时自动安装
torch,xformers,safetensors等必要依赖(需联网) - 加载 CUDA 支持,启用 GPU 加速
- 在本地启动 Web 服务,默认监听端口
8188
等待命令行窗口输出如下日志:
Starting server To see the GUI go to: http://127.0.0.1:8188一旦出现这行提示,说明服务已就绪。
场景 2:无独立显卡 / 仅 CPU 模式运行
如果你暂时没有 NVIDIA 显卡,或者显存不足(如低于 6GB),也可以用 CPU 模式运行:
双击:
run_cpu.bat⚠️ 注意:CPU 模式速度较慢,生成一张 512x512 图片可能需要几分钟,仅适用于学习和调试,不建议用于实际创作。
场景 3:Apple Silicon(M1/M2/M3)芯片 Mac 用户
Mac 上可以利用 Metal 加速(viaPyTorch MPS),性能表现相当不错。
打开终端,进入 ComfyUI 目录并执行:
python main.py --listen 127.0.0.1 --port 8188为了提升效率,还可以加上半精度参数:
python main.py --listen 127.0.0.1 --port 8188 --force-fp16如果遇到某些模型报错,可能是 FP16 不兼容,此时去掉--force-fp16回归 FP32 即可。
为方便起见,可以创建一个快捷启动脚本run_mac.sh:
#!/bin/bash cd "$(dirname "$0")" python main.py --listen 127.0.0.1 --port 8188 --force-fp16保存后赋予执行权限:
chmod +x run_mac.sh ./run_mac.sh下次双击运行该脚本即可。
场景 4:Linux 用户(NVIDIA / AMD)
NVIDIA 用户:
./run_nvidia_gpu.sh确保已安装正确的 NVIDIA 驱动和 CUDA 工具包。
AMD ROCm 用户:
./run_amd_linux.sh前提是系统已正确配置 ROCm 驱动和相关依赖库(如rocm-core,hip-runtime等)。AMD 平台的支持仍在发展中,部分功能可能存在限制。
当看到终端或命令行中打印出:
To see the GUI go to: http://127.0.0.1:8188立刻打开浏览器,访问:
👉 http://127.0.0.1:8188
你将看到一个深色背景的界面,左侧是节点面板,中间是空白画布区域——恭喜,ComfyUI 已经成功运行!
现在你可以:
- 从左侧拖拽节点到画布
- 用鼠标连线构建数据流
- 导入别人分享的
.json工作流模板 - 开始生成属于你的第一张图像
但在实际运行过程中,总会遇到一些“拦路虎”。以下是首次使用者最常见的几个问题及其解决方案。
❌ 问题 1:提示 “No module named ‘torch’” 或其他包缺失
原因分析:通常是首次运行未正常安装依赖,或是网络中断导致 pip 安装失败。
解决方法:
- 关闭所有 Python 进程(可在任务管理器中结束)
- 重新双击
run_nvidia_gpu.bat,让脚本重试安装 - 若仍失败,可手动进入
python_embeded\Scripts\目录运行:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118注意:具体 CUDA 版本需匹配你的驱动,若不确定,可用--extra-index-url自动匹配:
pip install torch --extra-index-url https://download.pytorch.org/whl/cu118❌ 问题 2:CUDA out of memory(显存溢出)
即使有 RTX 3060 或更高配置,也可能因模型过大或设置不当导致崩溃。
应对策略:
- 添加参数限制显存占用:
python main.py --gpu-only --reserve-vram 8000表示预留 8000MB 显存给系统或其他程序。
- 启用低显存模式:
python main.py --lowvram会牺牲部分速度来换取更低的内存消耗。
- 减小图像尺寸(如从 1024x1024 改为 768x768)
- 降低 batch size(批量数量)
有时候,一个小小的调整就能让你原本跑不动的模型顺利运行。
❌ 问题 3:打不开网页,提示“连接被拒绝”或“无法访问此网站”
常见于端口冲突或防火墙拦截。
排查步骤:
- 查看是否有多个 ComfyUI 实例正在运行(检查后台进程)
- 确认
8188端口是否被占用(可用netstat -ano | findstr :8188查询) - 更换端口号启动:
python main.py --port 8189然后访问http://127.0.0.1:8189
- 检查杀毒软件或防火墙是否阻止了 Python 或
python_embeded的网络访问权限
❌ 问题 4:模型加载失败,路径错误或乱码
典型症状:日志显示找不到模型,路径中含有中文字符或特殊符号。
根本原因:Python 对非 ASCII 路径支持不佳,尤其在 Windows 下容易出错。
终极解决方案:将 ComfyUI 安装路径改为纯英文,不含空格和中文,例如:
✅ 推荐路径:
D:\AI\ComfyUI C:\comfyui ~/comfyui❌ 避免路径:
D:\我的项目\ comfyui测试 ~/Downloads/人工智能工具哪怕只是一个空格,都可能成为压垮骆驼的最后一根稻草。
虽然本文重点是安装部署,但为了验证一切正常,不妨快速走一遍最基础的文生图流程。
构建第一个工作流:文本生成图像
步骤 1:添加核心节点
右键画布 → “Clear” 清空默认内容,然后从左侧节点栏依次拖入以下组件:
CheckpointLoaderSimple:加载基础 SD 模型(如realisticVision.safetensors)CLIPTextEncode×2:分别输入正向提示词(positive)和反向提示词(negative)KSampler:控制采样器类型、步数、CFG 值等EmptyLatentImage:生成初始潜空间噪声(替代旧版的 LatentNoise)VAEDecode:将潜空间图像解码为像素图像SaveImage:保存最终结果
注:新版 ComfyUI 中,“LatentNoise” 已被 “EmptyLatentImage” 取代,请注意命名差异。
步骤 2:连接节点形成完整流程
按照数据流动方向连接:
[CheckpointLoader] ──→ [CLIPTextEncode+] ↓ [KSampler] ←── [CLIPTextEncode-] ↑ [EmptyLatentImage] ↓ [VAEDecode] ──→ [SaveImage]其中 KSampler 是中心节点,接收模型、提示词和噪声输入。
步骤 3:填写参数并生成
- 在
CheckpointLoaderSimple中选择已下载的模型(需先放入models/checkpoints/) - 在两个
CLIPTextEncode节点中输入提示词,例如: - 正向:
a beautiful sunset over the mountains - 反向:
blurry, low quality, distortion - 设置
KSampler参数:steps=20, cfg=7, sampler=euler, scheduler=normal - 点击顶部的“Queue Prompt”按钮
几秒到几十秒后(取决于硬件),你将在output/文件夹中看到生成的图片!
为了让 ComfyUI 更强大、更易用,以下几个后续动作非常值得投入时间。
1. 安装 ComfyUI Manager 插件(强烈推荐)
这是一个由社区开发的强大插件管理器,能让你像使用 Chrome 扩展一样一键安装各种自定义节点。
GitHub 地址:
👉 https://github.com/ltdrdata/ComfyUI-Manager
安装方法很简单:
cd ComfyUI/custom_nodes git clone https://github.com/ltdrdata/ComfyUI-Manager.git重启 ComfyUI 后,界面上会出现一个新的“Manager”标签页,你可以在这里:
- 浏览和安装 ControlNet、IP-Adapter、Upscaler、Segmentation 等热门节点
- 查看节点文档和示例工作流
- 自动检测已安装插件的更新
再也不用手动去 GitHub 找.py文件复制粘贴了。
2. 整理模型存放路径
ComfyUI 对模型类型有明确的目录划分,务必按规范放置,否则无法识别:
| 模型类型 | 存放路径 |
|---|---|
| Checkpoint 模型(.ckpt / .safetensors) | models/checkpoints/ |
| VAE 模型 | models/vae/ |
| LoRA 模型 | models/loras/ |
| ControlNet 模型 | models/controlnet/ |
| IP-Adapter | models/ipadapter/ |
| T2I-Adapter | models/t2i_adapter/ |
推荐资源平台:
- Civitai:最大的开源模型社区,支持按 ComfyUI 分类筛选
- Hugging Face:搜索关键词
comfyui workflow可找到许多高质量模板 - Pinterest:搜 “ComfyUI node setup” 能看到大量视觉化的工作流截图
3. 备份与分享你的工作流
ComfyUI 的最大优势之一就是工作流即资产。所有的节点连接都会被导出为.json文件,位于:
ComfyUI/web/你可以:
- 将常用流程导出为 JSON,备份到云盘
- 提交到 Git 进行版本控制
- 发布到社区供他人复用
- 团队内部共享标准化生产模板
比如一个“带 ControlNet 线稿控制 + 局部重绘 + 超分放大”的全流程,只要保存一次,下次直接导入就能复现。
ComfyUI 的意义远不止是一个图像生成工具。它代表了一种新的 AI 使用范式:把 AI 当作可编程的组件,而不是不可控的魔法盒子。
通过节点式设计,我们终于可以清晰地看到每一步发生了什么,也能精准地修改任何一个环节。无论是做艺术创作、产品原型设计,还是搭建自动化内容生产线,ComfyUI 都提供了前所未有的灵活性和可靠性。
你现在拥有的不再只是一个软件,而是一个属于自己的本地化 AI 工作流操作系统。
下一步,你可以尝试:
- 导入社区高手分享的高级工作流(如动态分镜、角色一致性生成)
- 添加 ControlNet 实现线稿控制、深度图引导
- 使用 Latent Couple 节点实现上下半身分别生成
- 构建批处理流程,自动处理上百张图像
探索才刚刚开始。
📌实用资源汇总
- GitHub 主页:https://github.com/comfyanonymous/ComfyUI
- Discord 社区:https://discord.gg/comfyui(活跃度高,问题响应快)
- ComfyUI Manager:https://github.com/ltdrdata/ComfyUI-Manager
- 模型下载站:https://civitai.com(搜索时加上 “workflow” 更高效)
🚀 打开浏览器,输入http://127.0.0.1:8188,你的可视化 AI 旅程,现在正式启航。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考