Flowise快速上手:从安装到API导出完整操作手册
1. 什么是Flowise?零代码构建AI工作流的可视化平台
Flowise 是一个开源的可视化低代码平台,专为快速搭建大语言模型应用而设计。它把原本需要写大量代码才能实现的 LangChain 工作流,变成一个个可拖拽、可连接的图形化节点——就像搭积木一样,把 LLM、提示词、文本分块器、向量数据库、工具调用等模块拖到画布上,连上线,一个能跑的 AI 应用就完成了。
它不是玩具,而是真正能落地的生产级工具。你不需要懂 Python、不熟悉 LangChain 的链式调用、甚至没写过一行向量检索代码,也能在 5 分钟内,把公司内部的 PDF 文档库变成一个支持自然语言提问的问答系统。更关键的是,这个系统不是只能在网页里点点看看,它能一键导出成标准 REST API,直接被你的 CRM、客服后台或内部管理系统调用。
很多人第一次听说 Flowise 时会疑惑:“这不就是个前端界面?”其实不然。它的后端是完整集成的 Node.js 服务,支持本地模型加载、向量嵌入、RAG 检索、工具调用、会话状态管理,甚至条件分支和循环逻辑。所有节点运行时都走真实推理流程,不是模拟演示。GitHub 上超 45,000 颗星、MIT 协议、周更活跃的社区、丰富的插件生态,都说明它早已越过“实验项目”阶段,成为工程师和业务人员都能信赖的 AI 应用构建底座。
2. 为什么选Flowise?它解决的不是技术问题,而是时间问题
如果你正面临这些情况,Flowise 很可能就是你要找的答案:
- 你有一份 200 页的产品手册 PDF,销售团队每天被重复问题轰炸,但没人力开发一个专属问答机器人;
- 你想试试 RAG 效果,但卡在 LangChain 初始化、Embedding 模型选择、向量库配置、检索策略调试这一整套流程上;
- 你已经部署好了 vLLM 或 Ollama,但苦于没有现成接口把模型能力包装成业务可用的服务;
- 你希望非技术人员(比如运营、产品、客服)也能参与 AI 应用的设计和迭代,而不是每次改个提示词都要找工程师发版。
Flowise 的核心价值,恰恰在于把“构建 AI 能力”的门槛,从“会写代码”降到了“会连线”。它不替代工程师,而是放大工程师的产出效率;也不排斥开发者,反而为开发者省去了大量胶水代码和前端对接工作。
更重要的是,它天然支持本地优先部署。你可以把整个服务跑在自己笔记本上测试,也可以部署到树莓派做边缘 AI,还能无缝迁移到云服务器支撑百人并发。它不绑定任何厂商 API,OpenAI、Claude、Gemini、Qwen、Llama3、Phi-3……只要模型能通过标准接口接入(HuggingFace Inference API、Ollama、LocalAI、vLLM),Flowise 就能调度它。
一句话总结它的定位:不是另一个大模型,而是一个让大模型真正好用起来的“操作系统”。
3. 快速部署:两种方式,5 分钟启动本地服务
Flowise 提供了极简的本地启动路径,无需 Docker、不依赖云服务,一条命令就能跑起来。下面介绍两种最常用、最稳妥的方式。
3.1 方式一:npm 全局安装(推荐新手快速验证)
这是最快看到效果的方法,适合想先体验再决定是否深入的用户。
# 确保已安装 Node.js(建议 v18+)和 npm node -v npm -v # 全局安装 Flowise CLI npm install -g flowise # 启动服务(默认监听 http://localhost:3000) flowise start首次运行会自动下载依赖并初始化数据库,等待约 30 秒,终端出现Server is running on http://localhost:3000即表示成功。打开浏览器访问该地址,就能看到登录页。
小贴士:默认账号密码是
admin@example.com/changeme。首次登录后建议立即修改。
3.2 方式二:Docker 一键部署(推荐生产或集成 vLLM)
当你需要接入本地大模型(如通过 vLLM 加速的 Llama3-70B),或希望环境更干净可控时,Docker 是更优选择。以下是以 vLLM 为后端的典型部署流程(基于你提供的脚本优化整理):
# 更新系统并安装编译依赖(vLLM 需要) apt update apt install -y cmake libopenblas-dev python3-dev # 创建工作目录并克隆官方仓库 mkdir -p /app/flowise cd /app/flowise git clone https://github.com/FlowiseAI/Flowise.git . cd packages/server # 复制环境配置模板 cp .env.example .env # 编辑 .env 文件,配置 vLLM 后端(关键!) # 将以下行取消注释并修改为你的 vLLM 地址: # LLM_PROVIDER=localai # LOCALAI_BASE_PATH=http://localhost:8080/v1 # LOCALAI_MODEL_NAME=llama3-70b # 安装依赖并构建(pnpm 更快更省空间) curl -fsSL https://get.pnpm.io/install.sh | sh -s -- -p source "$HOME/.pnpm-env" pnpm install pnpm build # 启动服务 pnpm start启动后,vLLM 服务需提前运行(例如python -m vllm.entrypoints.api_server --model meta-llama/Meta-Llama-3-70B-Instruct --tensor-parallel-size 4 --host 0.0.0.0 --port 8080)。Flowise 会自动连接该地址,后续在节点配置中选择 “LocalAI” 类型即可调用。
验证成功标志:进入 Flowise 界面 → 新建一个空白流程 → 添加 “LLM” 节点 → 在 Provider 下拉框中能看到 “LocalAI”,且模型列表能正常加载。
4. 第一个实战:三步搭建知识库问答机器人(RAG)
现在我们来做一个最典型的场景:把一份产品文档 PDF 变成能回答问题的智能助手。整个过程不需要写代码,只靠鼠标操作。
4.1 步骤一:准备知识源与基础节点
在 Flowise 左侧节点栏,找到并拖入以下 4 个节点到画布:
- Document Loader(选择 PDF Loader)
- Text Splitter(推荐 RecursiveCharacterTextSplitter,chunkSize=500)
- Vector Store(选择 Chroma,这是默认内置、无需额外配置的轻量向量库)
- LLM(选择你已配置好的模型,如 LocalAI + llama3-70b)
按顺序连线:Document Loader → Text Splitter → Vector Store → LLM
(注意:Vector Store 节点有两个输出口,“VectorStore” 连 LLM,“Documents” 可留空或连日志用于调试)点击 Document Loader 节点,在右侧设置面板中上传你的 PDF 文件(比如
product_manual.pdf)。保存节点。
4.2 步骤二:添加问答逻辑与提示词
RAG 的核心不只是“查向量”,更是“怎么问”。我们需要一个 Prompt 节点来组织问题格式:
拖入一个Prompt Template节点,输入标准 RAG 提示词(已预置模板可直接选 “RAG Question Answering”):
Use the following pieces of context to answer the question at the end. If you don't know the answer, just say that you don't know. {context} Question: {question} Helpful answer:将 Vector Store 的 “Retriever” 输出口,连接到 Prompt Template 的 “context” 输入口;
将画布顶部的全局输入 “question”(代表用户提问),连接到 Prompt Template 的 “question” 输入口;
最后,将 Prompt Template 的输出,连接到 LLM 节点的 “prompt” 输入口。
此时,你的流程图已具备完整 RAG 链路:用户提问 → 检索相关段落 → 组织成提示词 → 大模型生成答案。
4.3 步骤三:测试与发布
- 点击右上角Chat按钮,打开对话窗口。
- 输入问题,例如:“如何重置设备管理员密码?”
- 观察右侧日志面板:你能清晰看到 PDF 被加载、文本被切分、向量检索返回了哪几段、最终提示词长什么样、LLM 返回了什么答案。
- 如果结果不理想,不用改代码——只需双击 Prompt 节点调整措辞,或调整 Text Splitter 的 chunkSize,实时生效。
到此,一个可运行的知识库问答机器人已完成。它不依赖公网、不调用第三方 API、所有数据留在本地,且全程可视、可调、可追溯。
5. 进阶能力:从画布到 API,让AI能力真正进入业务系统
Flowise 最被低估的价值,是它能把“画布上的流程”瞬间变成“业务系统能调用的接口”。这不是概念演示,而是开箱即用的工程能力。
5.1 一键导出 REST API
- 在流程编辑页,点击右上角⋯ → Export as API
- 系统自动生成一个标准 OpenAPI 3.0 文档,并提供 curl 示例:
curl -X POST "http://localhost:3000/api/v1/prediction/abc123" \ -H "Content-Type: application/json" \ -d '{"question":"如何重置设备管理员密码?"}' - 复制该 URL 和请求体,即可在 Postman、Python 脚本、甚至 Excel 的 WEBSERVICE 函数中直接调用。
关键细节:每个流程导出的 API 路径末尾是一串唯一 ID(如
abc123),这意味着你可以在同一套 Flowise 实例中,同时运行多个不同用途的 API(如/api/v1/prediction/hr-policy、/api/v1/prediction/tech-support),互不干扰。
5.2 嵌入现有系统:三行代码接入 Vue/React
Flowise 官方提供了轻量 SDK,以 Vue 为例,只需在组件中引入:
<template> <input v-model="query" @keyup.enter="ask" placeholder="输入问题..." /> <div>{{ answer }}</div> </template> <script setup> import { useFlowise } from 'flowise-js' const flowise = useFlowise('http://localhost:3000') const query = ref('') const answer = ref('') const ask = async () => { const res = await flowise.predict('abc123', { question: query.value }) answer.value = res.text } </script>React、Svelte、纯 HTML + Fetch 同样简单。你不再需要维护一套独立的 FastAPI 后端,Flowise 就是你 AI 能力的统一网关。
5.3 生产就绪:持久化、权限与监控
- 数据持久化:默认使用 SQLite,适合开发;生产环境只需在
.env中配置DATABASE_URL=postgresql://user:pass@localhost:5432/flowise,即可切换至 PostgreSQL,保障多实例共享流程与会话。 - 用户权限:支持多租户管理,可为不同部门创建独立工作区,设置只读/编辑/管理员权限。
- 日志与监控:所有 API 调用、节点执行耗时、错误堆栈均记录在案,配合 Prometheus + Grafana 可构建完整可观测性体系。
6. 总结:Flowise 不是终点,而是你 AI 工程化的起点
回顾整个过程,你做了什么?
没有写一行 Python,没有配一个环境变量,没有 debug 过一次向量相似度计算——但你完成了一个具备真实业务价值的 RAG 应用:它能读你的文档、理解你的问题、生成专业回答,并通过标准 API 被任何系统调用。
Flowise 的意义,从来不是取代 LangChain 或 LlamaIndex,而是把它们封装成“可触摸的组件”。它让工程师能更快交付,让产品经理能参与设计,让业务方能直观验证效果。当别人还在争论“该用哪种 Embedding 模型”时,你已经把问答 API 接入了客服工单系统;当别人还在调试 Retrieval 的 top-k 参数时,你已用 Marketplace 模板复用了 10 个 SQL Agent 流程。
它不承诺“最强性能”,但兑现了“最短路径”;它不追求“最全功能”,但聚焦于“最常用场景”。45,000 颗星背后,是成千上万开发者用脚投票的选择:在 AI 工程落地这件事上,简单、可靠、可扩展,比炫技更重要。
所以,别再从pip install langchain开始你的 AI 之旅了。试试npm install -g flowise—— 也许 5 分钟后,你第一个真正可用的 AI 应用,就已经在 localhost:3000 上静静等待你的第一个提问。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。