news 2026/3/16 7:19:26

ComfyUI安装指南:快速上手教程

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
ComfyUI安装指南:快速上手教程

ComfyUI 安装与入门:从零构建你的第一个AI工作流

在生成式 AI 的浪潮中,越来越多创作者不再满足于“点一下按钮就出图”的黑箱操作。他们想要知道每一步发生了什么,想调整中间过程,甚至把整个流程自动化、标准化——这正是ComfyUI的用武之地。

它不像传统 WebUI 那样把所有功能塞进一个页面,而是像搭积木一样,把文本编码、采样、解码这些环节拆成独立的节点,让你用连线的方式亲手“组装”图像生成流程。你可以清楚地看到数据如何流动,参数如何传递,也能轻松复现或分享整套逻辑。

更重要的是,哪怕你不是程序员,只要有一块 NVIDIA 显卡和一台 Windows 电脑,几分钟内就能跑起来。下面我们就直奔主题,带你一步步完成安装,并生成第一张图。


下载 ComfyUI:从 GitHub 获取源码

打开浏览器,访问 ComfyUI 的官方仓库:

👉 https://github.com/comfyanonymous/ComfyUI

点击绿色的“Code”按钮,然后选择“Download ZIP”,将项目压缩包保存到本地。

如果你习惯使用 Git,也可以在目标目录执行:

git clone https://github.com/comfyanonymous/ComfyUI.git

但对于只想快速体验的新手来说,直接下载 ZIP 更省心。


解压并查看文件结构

找到下载好的ComfyUI-main.zip文件,右键选择“全部解压”,建议路径不要太深,比如放在桌面或D:\AI\ComfyUI这样的位置。

解压后你会看到几个关键内容:

ComfyUI/ ├── main.py ├── run_nvidia_gpu.bat ├── requirements.txt ├── models/ └── web/

其中最值得关注的是:

  • run_nvidia_gpu.bat:专为 NVIDIA 显卡准备的一键启动脚本
  • models/:未来要放模型的地方(SD 主模型、LoRA、ControlNet 等)
  • main.py:核心服务程序

一切就绪,接下来就是运行。


启动服务:双击运行批处理文件

进入解压后的文件夹,找到名为run_nvidia_gpu.bat的文件,双击运行它

这个脚本会自动做几件事:

  1. 检查是否安装了 Python
  2. 自动安装所需依赖(如 PyTorch、xformers)
  3. 启动本地服务器,默认监听8188端口

首次运行时需要下载一些包,过程可能持续 2–5 分钟,请耐心等待命令行窗口输出日志信息。

✅ 当你看到类似这样的提示:

Starting server To see the GUI go to: http://127.0.0.1:8188

说明服务已经成功启动!


访问界面:在浏览器中打开编辑器

保持命令行窗口运行(不要关闭),打开 Chrome、Edge 或 Firefox 浏览器,在地址栏输入:

👉 http://127.0.0.1:8188

稍等片刻,你会看到一个干净的节点编辑界面加载出来:

  • 左侧是可拖拽的节点列表
  • 中间是空白画布,用来连接流程
  • 右侧显示当前选中节点的参数设置

到这里,环境已经完全准备好。但光有界面还不够,我们得让它真正“动起来”。


快速出图:三步生成你的第一张图像

为了让安装不只是停留在“能打开”,而是“能产出”,我们立刻来走一遍完整流程。

第一步:加载基础模型

在左侧搜索框输入Checkpoint Loader,拖一个节点到画布上。

点击其中的 “Choose Checkpoint” 按钮,浏览并选择你已有的.safetensors.ckpt文件(例如realisticVision_v5.safetensors)。

📌 注意:ComfyUI 不自带任何模型文件。你需要提前从 CivitAI 或其他渠道获取兼容 Stable Diffusion 的模型,并放入models/checkpoints/目录下。


第二步:添加必要组件并连接

继续从左侧添加以下节点:

  • CLIP Text Encode (Prompt)→ 输入正向提示词,比如a beautiful landscape, high detail
  • CLIP Text Encode (Negative Prompt)→ 输入负面提示词,比如blurry, low quality, noise
  • KSampler→ 设置采样器(推荐 Euler a)、步数(20)、种子(设为 -1 表示随机)
  • VAE Decode→ 将潜变量还原为可视图像
  • Save Image→ 保存结果到本地磁盘

然后按如下方式连接节点:

Checkpoint Loader → CLIP Text Encode (Prompt) → KSampler → VAE Decode → Save Image Checkpoint Loader → CLIP Text Encode (Negative) ↘ KSampler

注意:两个文本编码器都要连回 KSampler,分别作为正负提示输入。


第三步:提交任务,等待出图

确认所有连线无误后,点击顶部工具栏的“Queue Prompt”按钮。

命令行窗口会开始打印日志,显卡也开始工作。根据模型大小和硬件性能,通常几秒到几十秒即可完成。

完成后,图片会自动保存在ComfyUI/output目录中,同时界面也会实时反馈进度。

🎯 成功!你已经完成了从零配置到实际生成的全过程。


常见问题及应对方法

虽然流程看似简单,但在真实环境中仍可能出现意外。以下是几个高频问题及其解决方案。

❌ ‘python’ is not recognized

这是最常见的报错之一。

原因:系统找不到 Python,说明未安装或未加入环境变量 PATH。

解决步骤
1. 前往 https://www.python.org/downloads/ 下载 Python 3.10(目前最稳定版本)
2. 安装时务必勾选“Add Python to PATH”
3. 安装完成后重启电脑,再重新运行.bat文件

⚠️ 不建议安装 Python 3.12,部分依赖尚未完全兼容。


❌ pip 安装失败,提示无法下载 torch/xformers

网络不稳定可能导致依赖安装中断。

解决办法
- 手动安装 PyTorch(CUDA 11.8 示例):
bash pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
- 或使用国内镜像加速:
bash pip install torch -i https://pypi.tuna.tsinghua.edu.cn/simple

安装完成后,再次运行run_nvidia_gpu.bat即可跳过依赖安装阶段。


❌ CUDA out of memory / 显存不足

尤其是使用大模型(如 SDXL)时容易触发。

缓解策略
- 在 KSampler 节点中启用tile_size参数(例如设为 512),开启分块渲染
- 使用 Tiled VAE 替代普通 VAE 解码器
- 减少采样步数或降低分辨率
- 改用 fp16 精度模型,减少内存占用

对于 8GB 显存以下的用户,建议优先尝试轻量模型(如小巧的 LoRA 组合)。


❌ 打不开 http://127.0.0.1:8188

页面空白或连接被拒?

排查清单
- 是否防火墙阻止了本地服务?尝试临时关闭杀毒软件测试
- 是否已有其他程序占用了 8188 端口?(如 TensorBoard、旧实例)
- 可修改启动脚本为:
bash python main.py --port 8189
然后访问http://127.0.0.1:8189


提升效率的三个实用建议

默认安装虽能运行,但稍作优化能让体验大幅提升。

✅ 推荐安装 ComfyUI-Manager 插件

前往 https://github.com/ltdrdata/ComfyUI-Manager ,下载并解压到custom_nodes/目录。

重启后你会在界面中看到一个新的“Manager”标签页,可以一键浏览、安装社区热门节点包,比如:

  • Impact Pack(批量处理、检测增强)
  • WAS Node Suite(图像预处理工具集)
  • ControlNet 辅助节点

无需手动查找和配置,极大简化扩展流程。


✅ 定期更新主程序

ComfyUI 更新频繁,常有性能优化和新特性加入。

进入 ComfyUI 根目录,执行:

git pull

即可拉取最新代码。如果当初是通过 ZIP 下载的,建议定期重新下载新版压缩包覆盖更新。

⚠️ 更新前建议备份models/output/目录,避免误删。


✅ 导出并保存常用工作流

当你调试好一套稳定可用的流程(比如带 ControlNet 的人像生成链),记得点击菜单栏的“Save”按钮,将其导出为.json文件。

以后只需导入该文件,就能一键还原整个节点结构,省去重复搭建的时间。团队协作时也非常有用——别人拿到你的 JSON 文件,也能跑出一模一样的效果。


写在最后:不只是工具,更是一种思维方式

ComfyUI 的价值远不止“另一个绘图界面”。它代表了一种新的 AI 使用哲学:可视化、模块化、可追溯

你不再只是“使用者”,而成了“流程设计者”。每一个节点都是你决策的一部分,每一次连接都在表达你的意图。这种透明性让实验变得可控,也让创新有了根基。

现在你已经完成了第一步:让 ComfyUI 在自己的机器上跑起来,并亲手构建了第一个工作流。

接下来呢?

不妨试试:
- 加载 ControlNet 实现线稿控制生成
- 搭建多阶段 pipeline 做高清修复
- 用 Latent Couple 实现区域化提示
- 甚至写个自定义节点,接入自己的算法

AI 的创造力不在云端,而在你的画布之上。

🚀 去吧,开始你的节点之旅。

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/13 0:59:38

Dify智能体平台用户行为追踪与数据分析

Dify智能体平台用户行为追踪与数据分析 在AI应用快速落地的今天,一个常被忽视的问题浮出水面:我们确实能用大语言模型(LLM)搭建出功能完整的智能客服、知识助手或自动化内容生成系统,但当用户反馈“回答不准”“响应太…

作者头像 李华
网站建设 2026/3/12 22:59:31

Linly-Talker:支持图片上传的多模态数字人对话系统

Linly-Talker:支持图片上传的多模态数字人对话系统 GitHub 地址:https://github.com/Kedreamix/Linly-Talker B站效果展示视频已上线,欢迎观看实际运行效果:www.bilibili.com/video/BV1rN4y1a76x/ 你有没有想过,只需…

作者头像 李华
网站建设 2026/3/12 23:59:30

91n解读:TensorRT为何成为大模型推理首选?

TensorRT为何成为大模型推理首选? 在当今AI系统日益走向“超大规模实时响应”的背景下,一个尖锐的问题摆在工程团队面前:为什么训练好的千亿参数模型,部署后却卡顿频频、延迟高企? 答案往往不在于模型本身,…

作者头像 李华
网站建设 2026/3/14 6:12:52

LobeChat能否检测手势?非接触式交互尝试

LobeChat能否检测手势?非接触式交互尝试 在医院的自助导诊机前,人们犹豫着是否要触碰屏幕;在厨房里做饭时,满手油污的手只能眼睁睁看着菜谱翻不了页;在安静的图书馆中,想唤醒AI助手却不敢开口……这些日常…

作者头像 李华
网站建设 2026/3/12 16:06:05

Excalidraw:手绘风在线白板,高效协作利器

Excalidraw:手绘风在线白板,高效协作利器 你有没有过这样的经历?在一次远程会议中,想快速画个架构图解释思路,结果打开 Visio 发现加载慢、操作卡,还得发文件给同事;或者用 PPT 画流程图&#…

作者头像 李华
网站建设 2026/3/14 2:49:33

利用少量数据训练出媲美真人发音的语音模型方法论

利用少量数据训练出媲美真人发音的语音模型方法论 在内容创作、虚拟交互和无障碍技术飞速发展的今天,个性化语音合成已不再是科技巨头的专属能力。过去,要打造一个听起来像真人的语音模型,往往需要几十小时高质量录音、专业标注团队和庞大的算…

作者头像 李华