news 2026/3/23 23:19:26

n8n+Ollama+Qwen3构建企业级RAG检索系统-知识库

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
n8n+Ollama+Qwen3构建企业级RAG检索系统-知识库

1、Qwen3-Embedding介绍

硅基流动:https://cloud.siliconflow.cn/me/models

魔搭社区:https://www.modelscope.cn/search?search=Qwen3-Embedding

HuggingFace:https://huggingface.co/Qwen/collections

2、Ollama安装下载

Ollama官方地址:https://ollama.com/

我的Ollama安装路径:E:\S_Software\Ollama

① 手动创建Ollama安装目录

我手动创建的文件夹目录为:E:\S_Software\Ollama

② 运行安装命令

创建好之后,把Ollama的安装包exe放在这个目录下,接着再到这个目录下运行cmd命令:

OllamaSetup.exe /DIR=E:\S_Software\Ollama

DIR后面的路径是之前手动创建的文件夹路径。

输入命令后直接回车,Ollama就会进入安装程序,这个时候可以看到安装的路径变成了我们刚刚创建的文件夹。

③ 安装完毕

安装好了之后,在控制台输入ollama,可以正常显示ollama版本则表示安装成功。

2.1、修改模型下载目录

① 创建models目录&修改默认模型下载目录

在之前的安装目录下创建一个models文件夹:E:\S_Software\Ollama\models

打开ollama软件,点击settings,找到Model location,把路径修改成上面创建好的这个。

② 模型转移

在命令行输入ollama list,如果发现有模型,则进行这一步操作。

先退出ollama,接着进入C盘-->用户-->你自己的电脑名称-->.ollama-->剪切整个models下的内容到刚刚上面新建的存储目录下,之后删掉C盘的这个models文件夹。

如果之前修改过存储目录,那就自己找到再去复制。

这个时候就是正常的了。

2.2、安装nodejs

如果想用nodejs安装n8n,可以安装nodejs,推荐安装v22以上的版本,这里我安装的是v24.11.1。

nodejs官网:https://nodejs.cn/download/

一路默认安装就行,有其他想法的自行AI搜索。 使用如下命令下载即可:

npm install -g n8n # -g表示全局安装,可在任意目录运行,整个过程大概需要5-10分钟
  • Windows报错gyp ERR! find VS:需安装Visual Studio的C++桌面开发工具(勾选Windows SDK)。
  • Linux/macOS报错distutils缺失:安装Python 3.x并确保distutils可用。
解决gyp ERR! find VS报错

1、报错内容

npm error gyp ERR! stack Error: Could not find any Visual Studio installation to use

原因是:n8n 依赖的 sqlite3 模块需要本地编译,但你的系统缺少 Visual Studio 的 C++ 编译工具链。而Visual Studio几乎是必备工具,因为支持:

  • C++ 开发工具链
  • .NET 框架
  • Windows SDK 和系统库

2、解决方案

下载对应的工具:https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/

下载2022版本,最新版2026的VS在npm没兼容无法识别

旧版下载链接:https://visualstudio.microsoft.com/zh-hans/vs/older-downloads/

实在下载不了就直接找我给安装包

  • ① 选择 “C++ 桌面开发”,勾选windows sdk(我的是win11,勾选的是win11的sdk)注意要是2022

  • ② 自定义安装目录

    安装需要十几个G的空间,建议更改盘符,另外一个windows11的sdk也勾上,win10那个也勾上,我在这踩了好多坑,我也不知道为什么我win11的电脑装win11还是报错找不到windows sdk,建议还是用docker安装,一个命令就结束。

这是后面我补充安装好的配置。

等待安装完毕即可,安装完成之后重启电脑。

3、重新安装n8n

# 1、卸载全局安装的 n8n 包npm uninstall -g n8n# 2、强制清理 npm 缓存文件npm cache clean --force# 3、验证缓存完整性并优化空间npm cache verify# 4、全局安装 n8n 包npm install -g n8n# 5、查看全局安装的 n8n 版本和依赖npm list -g n8n

4、启动n8n

配置好环境变量后,在命令行中输入n8n即可启动。

浏览器输入http://localhost:5678/setup即可访问。

3、Qwen3-Embedding本地模型下载及配置

① 模型下载

方式一:在HuggingFace里面下载下载量化之后的GGUF格式的模型:https://huggingface.co/Qwen/Qwen3-Embedding-4B-GGUF/tree/main

如果使用这种方法下载的模型,需要使用ollama再创建嵌入模型,推荐使用方式二。

Ollama创建嵌入模型

  1. 创建最简Modefile```plaintext
    echo FROM 上一步你下载的模型路径 > Modelfile# 示列echo FROM E:\Ollama\Qwen3-Embedding-4B-Q4_K_M.gguf > Modelfile

  2. 创建模型```plaintext
    ollama create qwen3_embedding -f Modelfile

方式二:使用Ollama命令直接下载模型

ollama run hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M

② 测试嵌入模型

**方式一的测试方法:**命令行输入(注意windows需要双引号裹住json,所以需要转义)

curl http://localhost:11434/api/embed -d "{\"model\":\"qwen3_embedding\",\"input\":\"Hello\"}"

model的名称要看ollama list输出的name,需要一致,方式一只做展示,推荐方式二。

**方式二的测试方法:**在命令行中输入:

ollama run hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M "这是一个测试文本"

效果就是会输出一堆向量化的内容。

方式二用curl命令测试:

curl http://localhost:11434/api/embed -d "{\"model\": \"hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M\",\"input\": \"Hello World\"}"

效果如下。

4、n8n创建RAG工作流

1、选择触发方式

这里暂时选择的是Trigger manually

2、添加步骤,搜索file

找到Read/Write Files from Disk,选择Read即可(因为是本地知识库,所以选的这个,还有其他方式)。

填入的E:\\F_File\\RAG\\**,表示读取RAG文件夹下的所有文件。

点击测试,提示成功则表示通过了。

也可以直接在这一个步骤里面运行,在右侧可以看到输出,这里可以看到直接输出了我在这个文件夹下面的两个文件,一个md格式,一个pdf格式。

3、添加循环组件Loop over Items

对应的中文文档:https://docs.n8ncn.io/integrations/builtin/core-nodes/n8n-nodes-base.splitinbatches/

循环组件loop,这个步骤是为了一直读取文件夹下的文件,循环读取。

Batch Size表示输入每次调用要返回的项目数。

执行当前整个业务流。

4、加入向量数据库

  1. 在loop的节点中加入Vector,这里我们作为学习演示,选择Simple Vector Store即可。

  2. 选择第二个Add documents from vector store,将文档转换为向量。

  3. Memory key这里直接使用的是默认的,也可以自己进行修改添加,后续将会使用到。

  4. 发现有红色感叹号,是因为还需要配置两个组件,一个是Embedding模型配置,一个是Document。

5、配置文件解析模型&语义分割

1、Embedding模型配置

我们选择的是本地Ollama模型部署。

配置Ollama默认的是localhost,如果localhost提示连接不上,就修改成127.0.0.1

选择对应的Embedding模型。

2、Document对文件进行分块

选择Default Data Loader

  • Type of Data可以选择JSON或者Binary(二进制),这里我们选择二进制。

  • Mode选择默认的Load All Input Data

  • Data Format选择自己的文件类型,或者选择自动解析。

  • Text Splitting选择自定义Custom

这个时候工作流如下图所示,需要对文本分割进行处理了。

3、选择语义分割

6、创建检索知识库工作流

当前完整工作流如下图所示。

1、当前工作流运行成功显示

2、创建一个新的工作流

选择On chat message

3、创建一个AI Agent节点

AI Agent下方的Chat Mode接入一个对话大模型,这里我选择的是Deepseek,需要有API Key,使用硅基流动或者Deepseek官方API生成ApiKey填入即可。 第一次建立需要点击Create new credential

接着在AI Agent下方的Tool接入Answer questions with vector store(使用向量存储回答问题),在描述里面填入:当前工具是用来检索向量数据的。

到这一步创建完,工作流如图所示。

4、接入向量数据库、向量模型、对话模型

接上一步骤,在Answer questions with vector store(使用向量存储回答问题)下面的Vector Store接入向量数据库:Simple Vector Store

注意:和创建向量数据库那个时候的key要匹配一致。

Model节点中继续接入Deepseek Chat model

最后一步,在Simple Vector Store下面的Embedding模型中接入我们的本地向量模型,依旧和5-1步骤一样,最终工作流如下所示:

7、测试知识库的准确性

点击open chat进行对话,输入问题:找一下ios禁止系统更新的网址。 发现可以很精准的回答问题,并且没有任何的添油加醋,完全就是我笔记里面的内容,只是进行了一个简单的排版。

而在deepseek的官方对话里面问的是找不到我笔记里面的这个网址的。

使用另外一个问题,发现分段式的内容不能非常精准的找到,但进一步进行提示后,还是可以准确的回答。 这就是后续可以优化的点。

8、知识点补充 - Ollama 常用命令大全

1、下载/运行模型:ollama run <模型名字>

2、清除模型上下文:/clear

3、退出对话 / 关闭模型:/bye

4、查看模型运行速度&token数细节:

ollama run <模型名字> --verbose

5、查看你有什么模型:ollama list

6、删除模型:ollama rm <模型名字>

7、查看模型的详细信息:ollama show <模型名字>

8、启动Ollama服务器:ollama serve

9、创建模型文件(用于自定义模型):

ollama create <自定义的模型名字> -f Modelfile

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】


四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/17 10:45:12

LangFlow镜像资源消耗优化:低配机器也能流畅运行

LangFlow镜像资源消耗优化&#xff1a;低配机器也能流畅运行 在AI应用开发日益普及的今天&#xff0c;越来越多开发者希望快速验证大模型&#xff08;LLM&#xff09;的想法&#xff0c;而不必陷入繁琐的代码调试。然而现实往往并不友好——许多开源工具虽然功能强大&#xff0…

作者头像 李华
网站建设 2026/3/22 7:53:16

从“单体智能”到“群体协同”:机器狗集群的分布式智能演进之路

当每一台机器狗都拥有自主决策的“边缘大脑”&#xff0c;群体协作的智能范式正在重塑机器人应用边界在机器狗技术日益成熟的今天&#xff0c;我们正面临一个新的转折点&#xff1a;单机智能的极限探索已逐渐让位于群体智能的系统性突破。当机器狗从实验室的演示场景走向工业巡…

作者头像 李华
网站建设 2026/3/20 10:44:58

Remote ‘g‘ packet reply is too long

g 包是 GDB 发送的 “读寄存器状态” 请求&#xff0c;远程 stub&#xff08;目标端&#xff09;返回的数据长度和 GDB 预期不一致。典型原因&#xff1a;你使用的 GDB 和远程目标&#xff08;OpenOCD、QEMU、硬件调试器等&#xff09;寄存器定义不匹配。GDB 编译时没有 XML ta…

作者头像 李华
网站建设 2026/3/23 0:45:34

三个月逆袭AI大模型实战:从CRUD到Prompt高手,我的血泪逆袭之路!

三个月前&#xff0c;我还在一家传统软件公司&#xff0c;重复着日复一日的业务逻辑开发。薪资天花板触手可及&#xff0c;职业焦虑与日俱增。看着AI浪潮席卷而来&#xff0c;我下定决心&#xff1a;必须转型&#xff0c;而且要在最短时间内完成。 今天&#xff0c;我已经成功加…

作者头像 李华
网站建设 2026/3/13 21:42:33

LangFlow镜像支持自定义组件?开发者可自由扩展!

LangFlow镜像支持自定义组件&#xff1f;开发者可自由扩展&#xff01; 在AI应用开发日益普及的今天&#xff0c;越来越多团队希望快速构建基于大语言模型&#xff08;LLM&#xff09;的智能系统——比如客服机器人、知识问答引擎或自动化报告生成器。但现实往往并不轻松&#…

作者头像 李华
网站建设 2026/3/22 2:45:36

LangFlow镜像轻量化设计:适合边缘设备与小型服务器

LangFlow镜像轻量化设计&#xff1a;适合边缘设备与小型服务器 在AI应用正加速从云端向终端渗透的今天&#xff0c;一个现实问题日益凸显&#xff1a;如何让复杂的语言模型系统在树莓派、Jetson Nano这类资源有限的小型设备上稳定运行&#xff1f;传统的开发流程依赖重型IDE、大…

作者头像 李华