news 2026/2/5 14:04:20

小白也能懂的Flowise教程:快速搭建本地AI应用工作流

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
小白也能懂的Flowise教程:快速搭建本地AI应用工作流

小白也能懂的Flowise教程:快速搭建本地AI应用工作流

你是不是也遇到过这些情况:

  • 想把公司内部文档变成能随时问答的知识库,但写 LangChain 代码太费劲?
  • 看到 RAG、Agent、向量检索这些词就头大,可又不想只用黑盒 AI 工具?
  • 听说 Flowise 能拖拽建工作流,点开官网却卡在“npm install”和“环境变量配置”上?

别担心——这篇教程专为没写过一行 LangChain、没配过一次向量库、甚至刚装好 Docker 的新手而写。不讲抽象概念,不堆技术参数,只带你从零开始:
5 分钟启动本地 Flowise 服务
拖拽 4 个节点,做出一个能读 PDF 并回答问题的机器人
不改一行代码,导出 API 给网页或 Excel 调用
真实可用,不是演示 Demo

全程用大白话+截图逻辑+可复制命令,就像朋友手把手教你搭积木。


1. 先搞明白:Flowise 到底是干啥的?

Flowise 不是一个“AI模型”,它更像一个AI 应用组装台

想象一下:LangChain 是一整套乐高零件(聊天模型、提示词模板、文本分割器、向量数据库、网络工具……),而 Flowise 把它们全做成带标签的彩色积木块,摆在画布上。你只需要:

  • 拖 —— 把需要的模块拖进来(比如“本地大模型”“PDF 解析器”“向量检索器”)
  • 连 —— 用线把它们连起来(输出 → 输入)
  • 点 —— 点“保存”“启动”,就能跑起来

它不训练模型,也不优化推理,但它让你跳过所有代码门槛,直接做出能落地的 AI 功能

官方原话叫 “Drag & drop UI to build your customized LLM flow”
中文直译就是:“拖一拖、连一连,做出你自己的大模型工作流”

而且它完全本地运行:你的文档不会上传云端,你的提问不会进别人服务器,所有数据留在你自己的电脑或服务器里。


2. 三步启动:不用 npm,不用编译,Docker 一键开箱

Flowise 官方提供了预构建的 Docker 镜像,这是对新手最友好的方式。我们跳过源码编译、pnpm 构建、环境变量调试这些容易卡住的环节,直接走最短路径。

2.1 前提检查:你的机器得有啥?

  • 已安装 Docker(验证命令:docker --version,输出类似Docker version 24.0.7即可)
  • 内存 ≥ 8GB(跑本地模型推荐 16GB,但 Flowise 本身只要 2GB 就能启动)
  • 磁盘剩余空间 ≥ 5GB(用于存储知识库和缓存)

如果还没装 Docker?别回头去查教程了——直接复制粘贴这三行命令(Linux/macOS):

curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER newgrp docker

执行完重启终端,再输docker --version就能看到版本号。

2.2 一条命令,启动 Flowise 服务

打开终端(Windows 用户可用 PowerShell 或 WSL),输入:

docker run -d \ --name flowise \ -p 3000:3000 \ -v $(pwd)/flowise-storage:/root/.flowise \ -e FLOWISE_USERNAME=admin \ -e FLOWISE_PASSWORD=123456 \ --restart unless-stopped \ flowiseai/flowise:latest

这条命令做了什么?我们用人话拆解:

部分说明
docker run -d后台运行容器(不占终端)
--name flowise给这个服务起名叫flowise,方便后续管理
-p 3000:3000把容器里的 3000 端口映射到你电脑的 3000 端口,之后访问http://localhost:3000就能打开界面
-v $(pwd)/flowise-storage:/root/.flowise把当前文件夹下的flowise-storage目录,作为 Flowise 的永久存储位置(存知识库、日志、配置等),关机重启也不丢数据
-e FLOWISE_USERNAME=admin -e FLOWISE_PASSWORD=123456设置登录账号密码(用户名 admin,密码 123456),避免默认空密码的安全风险
--restart unless-stopped电脑重启后自动拉起 Flowise,不用手动再输命令
flowiseai/flowise:latest从 Docker Hub 拉取最新版官方镜像(已内置 vLLM 支持,开箱即用)

执行后你会看到一串长 ID(如a1b2c3d4e5...),说明启动成功。

2.3 打开浏览器,登录你的 AI 工作台

在浏览器地址栏输入:
http://localhost:3000

输入你刚刚设置的账号密码:

  • 用户名:admin
  • 密码:123456

首次登录会进入欢迎页,点击右上角“Get Started”,就正式进入 Flowise 的可视化画布。

注意:如果打不开页面,请检查是否还有其他程序占用了 3000 端口(比如另一个 Flowise、Vite 项目等)。可临时换端口:把上面命令中的-p 3000:3000改成-p 3001:3000,然后访问http://localhost:3001


3. 第一个实战:拖拽做出「PDF 文档问答机器人」

我们不做虚的,现在就做一个真实能用的功能:上传一份 PDF(比如产品说明书),让它能回答“这个功能怎么开启?”“支持哪些接口?”这类问题。

整个过程只需 4 步,全部在网页里点选完成,不需要写任何代码

3.1 创建新工作流:选对起点很关键

  • 点击左侧菜单栏的Chatflows(这是最常用的工作流类型,适合问答、对话类场景)
  • 点右上角+ Create New Chatflow
  • 输入名称,比如产品手册问答
  • 点击Create

你将看到一张空白画布,右侧是组件面板,左边是节点库。

3.2 拖入四个核心节点(按顺序连)

请严格按以下顺序拖入并连线(顺序错了可能无法运行):

### 3.2.1 拖入「Document Loader」→ 加载 PDF
  • 在左侧节点库中,找到Document Loaders分类
  • 拖一个PDF File节点到画布中央
  • 点击该节点,在右侧设置面板中:
    • 勾选“Allow upload from UI”(允许你在界面上直接上传 PDF)
    • 其他保持默认即可

这个节点的作用:把 PDF 文件转成纯文本段落(自动处理目录、表格、图片文字等)

### 3.2.2 拖入「Text Splitter」→ 切分文本
  • Text Splitters分类下,拖一个Recursive Character Text Splitter

  • 连线:把PDF File的输出箭头(绿色小圆点),拖到Recursive Character Text Splitter的输入箭头(灰色小圆点)上

  • 点击该节点,在右侧设置:

    • Chunk Size:500(每段最多 500 字符,太长影响检索精度)
    • Chunk Overlap:50(相邻段落重叠 50 字,避免断句丢失上下文)

这个节点的作用:把几十页的 PDF 拆成几百个“小知识块”,方便后面存进向量库快速查找

### 3.2.3 拖入「Vector Store」→ 存知识、做检索
  • Vector Stores分类下,拖一个In-Memory Vector Store(新手首选,无需额外数据库)

  • 连线:把Text Splitter的输出,连到In-Memory Vector Store的输入

  • 点击该节点,在右侧设置:

    • Embedding: 选择Ollama Embeddings(如果你本地没装 Ollama,先跳过,我们用备用方案)
    • 替代方案(推荐新手):点击+ Add Credential→ 选择HuggingFace Embeddings→ 填写model:sentence-transformers/all-MiniLM-L6-v2(免费、轻量、中文友好)

这个节点的作用:把每一段文字转成数字向量,存进内存;当你提问时,它能快速找出“最像”的几段原文

### 3.2.4 拖入「LLM」→ 让 AI 看懂并回答
  • LLMs分类下,拖一个Ollama节点(如果你已装 Ollama 并运行了模型)

  • 替代方案(无 Ollama 用户):拖OpenAI节点(需 OpenAI API Key)或HuggingFace Inference API(需 HuggingFace Token)

  • 连线:把Vector Store的输出(标着retriever的端口),连到LLM节点的retriever输入;再把LLMoutput连到画布右上角的“Output”节点(它自带,不用拖)

  • 点击 LLM 节点设置:

    • 若用 OpenAI:填入你的API KeyModel Name:gpt-3.5-turbo
    • 若用 HuggingFace:填入TokenModel ID:google/flan-t5-base(轻量、响应快)

这个节点的作用:接收用户问题 + 检索到的相关原文,生成自然语言回答(不是简单复制粘贴,而是理解后组织语言)

3.3 保存并测试:上传 PDF,问一句试试

  • 点右上角Save
  • 点左上角Chat标签(或刷新页面),进入聊天界面
  • 点击右下角 ** Upload Document**,选择一份 PDF(建议先用 2–3 页的简单文档测试)
  • 等待右上角显示 “Document processed successfully”
  • 在输入框里问:

    “这个产品支持蓝牙吗?”
    “如何重置设备?”

你会看到 Flowise 先检索相关段落,再调用大模型生成回答——整个流程不到 5 秒。


4. 进阶一步:导出 API,让别人也能用

做出来只是第一步,真正落地,是要让其他人(同事、前端、Excel 宏)也能调用它。

Flowise 提供了一键导出 REST API 的能力,且完全免费。

4.1 获取你的工作流 API 地址

  • 回到Chatflows页面
  • 找到你刚创建的产品手册问答,点右侧⋯ → Export Chatflow
  • 复制弹窗里的API Endpoint,形如:
    http://localhost:3000/api/v1/prediction/abc123def456

4.2 用 curl 测试调用(30 秒搞定)

在终端里执行(替换为你自己的 endpoint):

curl -X POST "http://localhost:3000/api/v1/prediction/abc123def456" \ -H "Content-Type: application/json" \ -d '{ "question": "这个产品保修期多久?", "overrideConfig": { "sessionId": "user_001" } }'

你会立刻收到 JSON 响应,其中"text"字段就是 AI 的回答。

后续你可以:

  • 把这个地址给前端工程师,让他用 fetch 调用
  • 写个 Python 脚本批量提问
  • 在 Excel 里用 Power Query 调用它生成报告
  • 接入企业微信/钉钉机器人,@它就回答问题

5. 常见问题:新手最容易卡在哪?

我们整理了 90% 新手第一次使用 Flowise 会遇到的 3 个问题,并给出“抄作业式”解决方案。

5.1 问题:上传 PDF 后一直转圈,“Document processed” 不出现

解决方案:

  • 检查 PDF 是否加密(带密码的 PDF Flowise 无法解析)
  • 检查是否是扫描版 PDF(全是图片,没文字)→ 用 Adobe Acrobat 或 Smallpdf 先 OCR 识别成可选中文本
  • 检查 Flowise 日志:在终端执行docker logs flowise,看是否有Error: ENOENT(文件路径错误)或Embedding model not found(嵌入模型未加载)
  • 最快自救:换一个已知正常的 PDF(比如 Flowise 官网的 Getting Started PDF)

5.2 问题:提问后返回空,或答非所问

解决方案:

  • 先确认你连的是retriever端口(不是inputoutput
  • 检查Text SplitterChunk Size是否太大(>1000)导致检索不准 → 改成400
  • 检查Embedding模型是否支持中文(all-MiniLM-L6-v2支持,text-embedding-ada-002也支持)
  • 快速验证:在聊天框输入test,看是否返回“我还不知道”之类兜底回复 —— 如果连兜底都不回,说明 LLM 节点根本没连通

5.3 问题:想用本地大模型(如 Qwen2、Phi-3),但不知道怎么配

解决方案(两步到位):

  1. 先装 Ollama(Mac/Linux 一行命令):
    curl -fsSL https://ollama.com/install.sh | sh
  2. 拉取并运行模型
    ollama run qwen2:0.5b # 轻量版,1GB 显存够用 # 或 ollama run phi3:mini # 更小,CPU 也能跑
  3. 在 Flowise 的 LLM 节点里
    • 类型选Ollama
    • Base URL:http://host.docker.internal:11434(Mac/Linux)或http://172.17.0.1:11434(Windows WSL)
    • Model Name:qwen2:0.5b(和你ollama run的名字一致)

这样你就拥有了完全离线、不联网、不依赖 OpenAI 的私有 AI 助手。


6. 总结:你已经掌握了什么?

回顾一下,你刚刚完成了:

  • 用一条 Docker 命令,绕过所有编译和依赖,启动 Flowise 服务
  • 在网页里拖拽 4 个节点,连成一条工作流,做出能读 PDF 并回答问题的机器人
  • 上传任意文档,5 秒内获得精准回答,不是关键词匹配,而是语义理解
  • 导出一个标准 REST API 地址,让任何人、任何系统都能调用你的 AI 能力
  • 解决了新手三大高频卡点,并学会接入本地大模型

Flowise 的价值,从来不是“多酷炫”,而是“多省事”。它不替代你学 LangChain,但它让你在学会 LangChain 之前,就能交付真实价值。

下一步你可以:
➡ 去Marketplace里一键导入 “SQL Agent” 模板,让 AI 直接查你公司的数据库
➡ 在Tools里写一段 JS,让机器人能查天气、发邮件、调用内部 API
➡ 把多个 Chatflow 组合成一个Assistant,给它起名字、设人设、加记忆

但最重要的,是今天你已经跨过了那道“不敢开始”的门槛。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/5 12:19:40

万物识别-中文镜像企业应用:电商商品图自动打标与多类目识别实战

万物识别-中文镜像企业应用:电商商品图自动打标与多类目识别实战 在电商运营中,每天要处理成千上万张商品图——新品上架要配标签、老品维护要更新类目、平台审核要核对属性……人工打标不仅耗时费力,还容易出错。有没有一种方式&#xff0c…

作者头像 李华
网站建设 2026/2/3 17:41:44

从下载到出图仅需10分钟:麦橘超然部署全过程记录

从下载到出图仅需10分钟:麦橘超然部署全过程记录 1. 为什么这次部署特别快——不是宣传,是真实体验 你有没有试过部署一个AI图像生成服务,结果卡在模型下载、环境报错、CUDA版本不匹配上,折腾两小时还没看到界面?这次…

作者头像 李华
网站建设 2026/2/6 1:28:59

Chandra在知识库建设中的应用:PDF一键转结构化数据

Chandra在知识库建设中的应用:PDF一键转结构化数据 1. 为什么知识库建设总卡在PDF这一步? 你有没有遇到过这样的场景:手头堆着上百份合同、技术白皮书、扫描版论文、财务报表,想把它们变成可搜索、可引用、能喂给大模型的知识库…

作者头像 李华
网站建设 2026/2/5 10:34:50

Qwen3-VL-8B-Instruct-GGUF部署案例:中小企业低成本落地多模态AI助手

Qwen3-VL-8B-Instruct-GGUF部署案例:中小企业低成本落地多模态AI助手 1. 为什么中小企业现在能用上真正的多模态AI助手? 你可能已经试过不少“图文对话”工具,但真正用起来总卡在几个现实问题上: 模型太大,动辄要双…

作者头像 李华
网站建设 2026/2/5 8:42:53

GLM-Image小白入门:一键启动的文本转图像神器

GLM-Image小白入门:一键启动的文本转图像神器 你有没有试过这样的情景:脑子里已经浮现出一张绝美的画面——“晨雾中的青瓦白墙徽派建筑,飞檐翘角映着初升的金光,一只黑猫蹲在斑驳木门上回眸”——可翻遍图库找不到,自…

作者头像 李华
网站建设 2026/2/5 18:11:05

DamoFD模型教程:自定义训练数据集微调五点关键点回归头实操

DamoFD模型教程:自定义训练数据集微调五点关键点回归头实操 你是不是也遇到过这样的问题:现成的人脸检测模型效果不错,但关键点定位在特定场景下总差那么一点——比如戴口罩时鼻尖偏移、侧脸时嘴角识别不准、光照不均时眼睛定位模糊&#xf…

作者头像 李华