小白也能懂的Flowise教程:快速搭建本地AI应用工作流
你是不是也遇到过这些情况:
- 想把公司内部文档变成能随时问答的知识库,但写 LangChain 代码太费劲?
- 看到 RAG、Agent、向量检索这些词就头大,可又不想只用黑盒 AI 工具?
- 听说 Flowise 能拖拽建工作流,点开官网却卡在“npm install”和“环境变量配置”上?
别担心——这篇教程专为没写过一行 LangChain、没配过一次向量库、甚至刚装好 Docker 的新手而写。不讲抽象概念,不堆技术参数,只带你从零开始:
5 分钟启动本地 Flowise 服务
拖拽 4 个节点,做出一个能读 PDF 并回答问题的机器人
不改一行代码,导出 API 给网页或 Excel 调用
真实可用,不是演示 Demo
全程用大白话+截图逻辑+可复制命令,就像朋友手把手教你搭积木。
1. 先搞明白:Flowise 到底是干啥的?
Flowise 不是一个“AI模型”,它更像一个AI 应用组装台。
想象一下:LangChain 是一整套乐高零件(聊天模型、提示词模板、文本分割器、向量数据库、网络工具……),而 Flowise 把它们全做成带标签的彩色积木块,摆在画布上。你只需要:
- 拖 —— 把需要的模块拖进来(比如“本地大模型”“PDF 解析器”“向量检索器”)
- 连 —— 用线把它们连起来(输出 → 输入)
- 点 —— 点“保存”“启动”,就能跑起来
它不训练模型,也不优化推理,但它让你跳过所有代码门槛,直接做出能落地的 AI 功能。
官方原话叫 “Drag & drop UI to build your customized LLM flow”
中文直译就是:“拖一拖、连一连,做出你自己的大模型工作流”
而且它完全本地运行:你的文档不会上传云端,你的提问不会进别人服务器,所有数据留在你自己的电脑或服务器里。
2. 三步启动:不用 npm,不用编译,Docker 一键开箱
Flowise 官方提供了预构建的 Docker 镜像,这是对新手最友好的方式。我们跳过源码编译、pnpm 构建、环境变量调试这些容易卡住的环节,直接走最短路径。
2.1 前提检查:你的机器得有啥?
- 已安装 Docker(验证命令:
docker --version,输出类似Docker version 24.0.7即可) - 内存 ≥ 8GB(跑本地模型推荐 16GB,但 Flowise 本身只要 2GB 就能启动)
- 磁盘剩余空间 ≥ 5GB(用于存储知识库和缓存)
如果还没装 Docker?别回头去查教程了——直接复制粘贴这三行命令(Linux/macOS):
curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER newgrp docker执行完重启终端,再输
docker --version就能看到版本号。
2.2 一条命令,启动 Flowise 服务
打开终端(Windows 用户可用 PowerShell 或 WSL),输入:
docker run -d \ --name flowise \ -p 3000:3000 \ -v $(pwd)/flowise-storage:/root/.flowise \ -e FLOWISE_USERNAME=admin \ -e FLOWISE_PASSWORD=123456 \ --restart unless-stopped \ flowiseai/flowise:latest这条命令做了什么?我们用人话拆解:
| 部分 | 说明 |
|---|---|
docker run -d | 后台运行容器(不占终端) |
--name flowise | 给这个服务起名叫flowise,方便后续管理 |
-p 3000:3000 | 把容器里的 3000 端口映射到你电脑的 3000 端口,之后访问http://localhost:3000就能打开界面 |
-v $(pwd)/flowise-storage:/root/.flowise | 把当前文件夹下的flowise-storage目录,作为 Flowise 的永久存储位置(存知识库、日志、配置等),关机重启也不丢数据 |
-e FLOWISE_USERNAME=admin -e FLOWISE_PASSWORD=123456 | 设置登录账号密码(用户名 admin,密码 123456),避免默认空密码的安全风险 |
--restart unless-stopped | 电脑重启后自动拉起 Flowise,不用手动再输命令 |
flowiseai/flowise:latest | 从 Docker Hub 拉取最新版官方镜像(已内置 vLLM 支持,开箱即用) |
执行后你会看到一串长 ID(如a1b2c3d4e5...),说明启动成功。
2.3 打开浏览器,登录你的 AI 工作台
在浏览器地址栏输入:
http://localhost:3000
输入你刚刚设置的账号密码:
- 用户名:
admin - 密码:
123456
首次登录会进入欢迎页,点击右上角“Get Started”,就正式进入 Flowise 的可视化画布。
注意:如果打不开页面,请检查是否还有其他程序占用了 3000 端口(比如另一个 Flowise、Vite 项目等)。可临时换端口:把上面命令中的
-p 3000:3000改成-p 3001:3000,然后访问http://localhost:3001。
3. 第一个实战:拖拽做出「PDF 文档问答机器人」
我们不做虚的,现在就做一个真实能用的功能:上传一份 PDF(比如产品说明书),让它能回答“这个功能怎么开启?”“支持哪些接口?”这类问题。
整个过程只需 4 步,全部在网页里点选完成,不需要写任何代码。
3.1 创建新工作流:选对起点很关键
- 点击左侧菜单栏的Chatflows(这是最常用的工作流类型,适合问答、对话类场景)
- 点右上角+ Create New Chatflow
- 输入名称,比如
产品手册问答 - 点击Create
你将看到一张空白画布,右侧是组件面板,左边是节点库。
3.2 拖入四个核心节点(按顺序连)
请严格按以下顺序拖入并连线(顺序错了可能无法运行):
### 3.2.1 拖入「Document Loader」→ 加载 PDF
- 在左侧节点库中,找到Document Loaders分类
- 拖一个PDF File节点到画布中央
- 点击该节点,在右侧设置面板中:
- 勾选“Allow upload from UI”(允许你在界面上直接上传 PDF)
- 其他保持默认即可
这个节点的作用:把 PDF 文件转成纯文本段落(自动处理目录、表格、图片文字等)
### 3.2.2 拖入「Text Splitter」→ 切分文本
在Text Splitters分类下,拖一个Recursive Character Text Splitter
连线:把PDF File的输出箭头(绿色小圆点),拖到Recursive Character Text Splitter的输入箭头(灰色小圆点)上
点击该节点,在右侧设置:
Chunk Size:500(每段最多 500 字符,太长影响检索精度)Chunk Overlap:50(相邻段落重叠 50 字,避免断句丢失上下文)
这个节点的作用:把几十页的 PDF 拆成几百个“小知识块”,方便后面存进向量库快速查找
### 3.2.3 拖入「Vector Store」→ 存知识、做检索
在Vector Stores分类下,拖一个In-Memory Vector Store(新手首选,无需额外数据库)
连线:把Text Splitter的输出,连到In-Memory Vector Store的输入
点击该节点,在右侧设置:
Embedding: 选择Ollama Embeddings(如果你本地没装 Ollama,先跳过,我们用备用方案)- 替代方案(推荐新手):点击+ Add Credential→ 选择HuggingFace Embeddings→ 填写
model:sentence-transformers/all-MiniLM-L6-v2(免费、轻量、中文友好)
这个节点的作用:把每一段文字转成数字向量,存进内存;当你提问时,它能快速找出“最像”的几段原文
### 3.2.4 拖入「LLM」→ 让 AI 看懂并回答
在LLMs分类下,拖一个Ollama节点(如果你已装 Ollama 并运行了模型)
替代方案(无 Ollama 用户):拖OpenAI节点(需 OpenAI API Key)或HuggingFace Inference API(需 HuggingFace Token)
连线:把Vector Store的输出(标着
retriever的端口),连到LLM节点的retriever输入;再把LLM的output连到画布右上角的“Output”节点(它自带,不用拖)点击 LLM 节点设置:
- 若用 OpenAI:填入你的
API Key,Model Name:gpt-3.5-turbo - 若用 HuggingFace:填入
Token,Model ID:google/flan-t5-base(轻量、响应快)
- 若用 OpenAI:填入你的
这个节点的作用:接收用户问题 + 检索到的相关原文,生成自然语言回答(不是简单复制粘贴,而是理解后组织语言)
3.3 保存并测试:上传 PDF,问一句试试
- 点右上角Save
- 点左上角Chat标签(或刷新页面),进入聊天界面
- 点击右下角 ** Upload Document**,选择一份 PDF(建议先用 2–3 页的简单文档测试)
- 等待右上角显示 “Document processed successfully”
- 在输入框里问:
“这个产品支持蓝牙吗?”
“如何重置设备?”
你会看到 Flowise 先检索相关段落,再调用大模型生成回答——整个流程不到 5 秒。
4. 进阶一步:导出 API,让别人也能用
做出来只是第一步,真正落地,是要让其他人(同事、前端、Excel 宏)也能调用它。
Flowise 提供了一键导出 REST API 的能力,且完全免费。
4.1 获取你的工作流 API 地址
- 回到Chatflows页面
- 找到你刚创建的
产品手册问答,点右侧⋯ → Export Chatflow - 复制弹窗里的API Endpoint,形如:
http://localhost:3000/api/v1/prediction/abc123def456
4.2 用 curl 测试调用(30 秒搞定)
在终端里执行(替换为你自己的 endpoint):
curl -X POST "http://localhost:3000/api/v1/prediction/abc123def456" \ -H "Content-Type: application/json" \ -d '{ "question": "这个产品保修期多久?", "overrideConfig": { "sessionId": "user_001" } }'你会立刻收到 JSON 响应,其中"text"字段就是 AI 的回答。
后续你可以:
- 把这个地址给前端工程师,让他用 fetch 调用
- 写个 Python 脚本批量提问
- 在 Excel 里用 Power Query 调用它生成报告
- 接入企业微信/钉钉机器人,@它就回答问题
5. 常见问题:新手最容易卡在哪?
我们整理了 90% 新手第一次使用 Flowise 会遇到的 3 个问题,并给出“抄作业式”解决方案。
5.1 问题:上传 PDF 后一直转圈,“Document processed” 不出现
解决方案:
- 检查 PDF 是否加密(带密码的 PDF Flowise 无法解析)
- 检查是否是扫描版 PDF(全是图片,没文字)→ 用 Adobe Acrobat 或 Smallpdf 先 OCR 识别成可选中文本
- 检查 Flowise 日志:在终端执行
docker logs flowise,看是否有Error: ENOENT(文件路径错误)或Embedding model not found(嵌入模型未加载) - 最快自救:换一个已知正常的 PDF(比如 Flowise 官网的 Getting Started PDF)
5.2 问题:提问后返回空,或答非所问
解决方案:
- 先确认你连的是
retriever端口(不是input或output) - 检查
Text Splitter的Chunk Size是否太大(>1000)导致检索不准 → 改成400 - 检查
Embedding模型是否支持中文(all-MiniLM-L6-v2支持,text-embedding-ada-002也支持) - 快速验证:在聊天框输入
test,看是否返回“我还不知道”之类兜底回复 —— 如果连兜底都不回,说明 LLM 节点根本没连通
5.3 问题:想用本地大模型(如 Qwen2、Phi-3),但不知道怎么配
解决方案(两步到位):
- 先装 Ollama(Mac/Linux 一行命令):
curl -fsSL https://ollama.com/install.sh | sh - 拉取并运行模型:
ollama run qwen2:0.5b # 轻量版,1GB 显存够用 # 或 ollama run phi3:mini # 更小,CPU 也能跑 - 在 Flowise 的 LLM 节点里:
- 类型选Ollama
Base URL:http://host.docker.internal:11434(Mac/Linux)或http://172.17.0.1:11434(Windows WSL)Model Name:qwen2:0.5b(和你ollama run的名字一致)
这样你就拥有了完全离线、不联网、不依赖 OpenAI 的私有 AI 助手。
6. 总结:你已经掌握了什么?
回顾一下,你刚刚完成了:
- 用一条 Docker 命令,绕过所有编译和依赖,启动 Flowise 服务
- 在网页里拖拽 4 个节点,连成一条工作流,做出能读 PDF 并回答问题的机器人
- 上传任意文档,5 秒内获得精准回答,不是关键词匹配,而是语义理解
- 导出一个标准 REST API 地址,让任何人、任何系统都能调用你的 AI 能力
- 解决了新手三大高频卡点,并学会接入本地大模型
Flowise 的价值,从来不是“多酷炫”,而是“多省事”。它不替代你学 LangChain,但它让你在学会 LangChain 之前,就能交付真实价值。
下一步你可以:
➡ 去Marketplace里一键导入 “SQL Agent” 模板,让 AI 直接查你公司的数据库
➡ 在Tools里写一段 JS,让机器人能查天气、发邮件、调用内部 API
➡ 把多个 Chatflow 组合成一个Assistant,给它起名字、设人设、加记忆
但最重要的,是今天你已经跨过了那道“不敢开始”的门槛。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。