RAG检索增强生成技术,“先检索、后生成”的模式,能有效地将精准的外部知识与大模型结合,从而在不超出限制的前提下,让模型能够回答私域知识问题。在你的大模型应用中引入RAG方案能够扩展大模型所能处理的知识范围,本篇我们将基于阿里云大模型ACP培训课程内容,更深入地了解RAG工作流程,并尝试提升你的RAG应用问答准确度。
1)RAG的工作流程及原理
2)RAG应用效果评估
3)RAG应用各个环节常见问题及改进策略
1.熟悉 RAG 的工作流程
RAG(Retrieval Augmented Generation,检索增强生成)是一种结合了信息检索和生成式模型的技术,能够在生成答案时利用外部知识库中的相关信息。它的工作流程可以分为几个关键步骤:解析与切片、向量存储、检索召回、生成答案等
正如前言提到的,你需要让大模型拿到正确的"参考书",才能给出正确的"答案"。因此,你可以尝试增加每次拿到"参考书"的数量(增加召回的文档切片数量),或者将"参考书中的知识点"整理成结构化的表格(文档内容结构化)。基本优惠思路:
1.1 让大模型获取到更多参考信息
既然知识库中存在我们想要的信息,那么你可以通过增加一次性召回的文档切片数量的方式,从而扩大检索范围,提升找到相关信息的概率,也即是增加代码中召回文档切片的数量,观察召回效果是否得到了提升。
1)调整代码
index = rag.load_index()query_engine = index.as_query_engine(streaming=True,similarity_top_k=5)# 一次检索出 5 个文档切片,默认为 22)评估改进效果:为了评估改进效果,需要引入Ragas量化改进效果。
如何通过 Ragas 对 RAG 应用进行评测?如何通过 Ragas 分数来定位并解决问题?RAG 自动化评测体系:为了系统化地评测RAG系统,业界出现了一些非常实用的开源自动化评测框架,这些框架通常会从以下几个维度进行评估:
✧ 召回质量 (Retrieval Quality): RAG系统是否检索到了正确且相关的文档片段?
✧ 答案忠实度 (Faithfulness): 生成的答案是否完全基于检索到的上下文,没有“胡编乱造”(幻觉)?
✧ 答案相关性 (Answer Relevance): 生成的答案是否准确地回答了用户的问题?
✧ 上下文利用率/效率 (Context Utilization/Efficiency): 大模型是否有效地利用了所有提供给它的上下文信息?(这与我们之前提到的“Lost in the Middle”和“知识浓度”密切相关)
1.1.1Ragas评估效果
Ragas的评估指标高度契合RAG系统的痛点,主要包括:
1)整体回答质量的评估:
Answer Correctness,用于评估 RAG 应用生成答案的准确度。
2)生成环节的评估:
✧ Answer Relevancy,用于评估 RAG 应用生成的答案是否与问题相关。
✧ Faithfulness,用于评估RAG应用生成答案和检索到的参考资料的事实一致性。
3)召回阶段的评估:
✧ Context Precision,用于评估 contexts 中与准确答案相关的条目是否排名靠前、占比高(信噪比)。
✧ Context Recall,用于评估有多少相关参考资料被检索到,越高的得分意味着更少的相关参考资料被遗漏。
Ragas 还提供了很多其他的指标,这里就不一一介绍,你可以访问Ragas的文档来查看更多指标的适用场景和工作原理。Ragas支持的指标可以访问:https://docs.ragas.io/en/stable/concepts/metrics/available_metrics/
1.1.2上下文是 RAG 的生命线
当用户提出一个问题时,大模型通过阅读理解你提供的上下文(Context) 来给出回答。上下文决定了大模型能否给出准确、完整的答案。如果上下文缺失重要知识点,或存在错误、无关的内容,大模型就无法给出正确的结论。为了不丢失有效知识,有人提出把全部可用资料“一股脑全部灌给大模型”,让大模型来做甄别,结果产生了一个更复杂的问题:即使某个关键线索确实存在于你提供的大量资料中,但如果它被埋藏在海量的无关信息里,大模型也很可能会“视而不见”,这便是 RAG 系统中常说的“Lost in the Middle”现象。
RAG精度的瓶颈,往往不在于大模型本身是否足够“聪明”,而在于你提供给它的上下文(Context)的“知识浓度”。一个高质量的上下文,理应具有较高的知识浓度,意味着其中的相关信息密度高、噪音少、与问题直接关联。能让大模型准确地专注问题核心,得出正确结论。因此,你提供的上下文质量,直接决定了 RAG 系统的上限。在Ragas中Context Recall 和 Context Precision 就是来衡量召回的上下文的有效性的。你可以通过分析这两个指标来确认你的RAG系统召回上下文的质量有没有提升。
1)context recall
context recall指标评测的是RAG应用在检索阶段的表现。如果该指标得分较低,你可以尝试从以下方面进行优化:
✧ 检查知识库:知识库是RAG应用的源头,如果知识库的内容不够完备,则会导致召回的参考信息不充分,从而影响context recall。你可以对比知识库的内容与测试样本,观察知识库的内容是否可以支持每一条测试样本(这个过程你也可以借助大模型来完成)。如果你发现某些测试样本缺少相关知识,则需要对知识库进行补充。
✧ 更换embedding模型:如果你的知识库内容已经很完备,则可以考虑更换embedding模型。好的embedding模型可以理解文本的深层次语义,如果两句话深层次相关,那么即使“看上去”不相关,也可以获得较高的相似度分数。
2)context precision
与context recall一样,context precision指标评测的也是RAG应用在检索阶段的表现,但是更注重相关的文本段是否具有靠前的排名。如果该指标得分较低,你可以尝试context recall中的优化措施,并且可以尝试在检索阶段加入rerank(重排序),来提升相关文本段的排名。
3)answer correctness
answer correctness指标评测的是RAG系统整体的综合指标。如果该指标得分较低,而前两项分数较高,说明RAG系统在检索阶段表现良好,但是生成阶段出了问题。你可以尝试前边教程学到的方法,如优化prompt、调整大模型生成的超参数(如temperature)等,你也可以更换性能更加强劲的大模型,甚至对大模型进行微调(后边的教程会介绍)等方法来提升生成答案的准确度。
1.2给大模型结构更清晰的参考信息
在实际应用中,文档的组织结构对检索效果有着重要影响。想象一下,同样的信息,放在一个结构清晰的表格中和散落在一段普通文字里,哪个更容易查找和理解?显然是前者。大语言模型也是如此。当把原本在表格中的信息转换成普通文本时,虽然信息本身没有丢失,但结构性却降低了。这就像是把一个整齐的抽屉变成了一堆散乱的物品,虽然东西都在,但查找起来就没那么方便了。
1)重建索引:Markdown格式是一个很好的选择,因为它:
✧结构清晰,层次分明
✧语法简单,易于阅读和维护
✧特别适合RAG(检索增强生成)场景下的文档组织
2)评估改进效果:改为Markdown格式之后可以重新评估RAG应用效果。
2. RAG应用各个环节与改进策略
为了进一步优化RAG应用效果,接下来,将从 RAG 中的每一个环节入手,尝试优化 RAG 的效果。
2.1 文档准备阶段
在没有大模型之前我们会根据用户所提问题,积累知识库,并共享其他人。在构建 RAG 应用时,这一过程同样不可缺少。
✧ 意图空间:我们可以把用户提问背后的需求绘制成点,这些点组成了一个用户意图空间。
✧ 知识空间:而你沉淀在知识库文档中的知识点,则构成了组成一个知识空间。这里的知识点,可以是一个段落、或者一个章节。
当我们将意图空间和知识空间投影到一起,会发现两个空间存在交集与差异,用户意图空间vs知识空间映射示意。
这些区域分别对应了我们后续的三个优化策略。
✧ 重叠区域:即可以依靠知识库的内容来回答用户问题的部分,这是 RAG 应用效果保障的基础。对于这部分用户意图,你可以通过优化内容质量、优化工程和算法,不断地提升回答质量。
✧ 未被覆盖的意图空间:因为缺乏知识库内容的支撑,大模型容易输出“幻觉”回答。例如,由于新业务发展,我们需要引入“qRPC核酸检测扩增曲线分析方面的理论与技术“,但知识库中没有相关文档,不论如何改进工程算法,RAG 应用都无法准确回答这一问题。你需要做的是主动补充缺漏的知识,不断跟进用户意图空间的变化。
✧ 未被利用的知识空间:召回不相关知识点可能会干扰大模型的回答。因此,需要你优化召回算法避免召回无关内容。此外,你还需要定期查验知识库,剔除无关内容。
在尝试优化工程或算法之前,你应该优先构建一套可以持续收集用户意图的机制。通过系统化采集真实用户需求来完善知识库内容,并邀请对用户意图有深刻理解的领域专家参与效果评估,形成"数据采集-知识更新-专家验证"的闭环优化流程,保障RAG 应用的效果。
2.2 文档解析与切片阶段
首先,RAG 应用会解析你的文档内容,然后对文档内容进行切片。
大模型在回答问题时拿到的文档切片如果缺少关键信息,会回答不准确;如果拿到的文档切片非关联信息过多(噪声),也会影响回答质量。即过少或过多的信息,都会影响模型的回答效果。因此,在对文档进行解析与切片时,需要确保最终的切片信息完整,但不要包含太多干扰信息。
2.2.1 问题分类及改进策略
在文档解析与切片阶段,你可能会遇到以下问题:
| 类别 | 细分类型 | 改进策略 | 场景化示例 |
| 文档解析 | 文档类型不统一,部分格式的文档不支持解析比如前面用到的 SimpleDirectoryLoader 并不支持 Keynote 格式的文件 | 开发对应格式的解析器,或转换文档格式 | Keynote文件->Keynote 解析器或将文件转换为支持的格式(如 PDF-PDF解析器)。 |
| 已支持解析的文档格式里,存在一些特殊内容比如文档里嵌入了表格、图片、视频等 | 改进文档解析器 | 例如,某文档中包含了大量的表格和图片,现有解析器无法正确提取表格中的信息。可以改进解析器,使其能够处理表格和图片。 | |
| … | … | … | |
| 文档切片 | 文档中有很多主题接近的内容比如工作手册文档中,需求分析、开发、发布等每个阶段都有注意事项、操作指导 | 扩写文档标题及子标题「注意事项」=>「需求分析>注意事项」建立文档元数据(打标) | 例如,某文档中包含多个阶段的注意事项,用户提问“需求分析的注意事项是什么?”时,系统返回了所有阶段的注意事项。可以通过扩展标题和打标来区分不同阶段的内容。 |
| 文档切片长度过大,引入过多干扰项 | 减少切片长度,或结合具体业务开发为更合适的切片策略 | 例如,某文档的切片长度过大,包含了多个不相关的主题,导致检索时返回了无关信息。可以减少切片长度,确保每个切片只包含一个主题。 | |
| 文档切片长度过短,有效信息被截断 | 扩大切片长度,或结合具体业务开发为更合适的切片策略 | 例如,某文档中每个切片只有一句话,导致检索时无法获取完整的上下文信息。可以增加切片长度,确保每个切片包含完整的上下文。 | |
| … | … | … |
2.2.2 借助百炼解析 PDF 文件
在前面的学习过程中,为了让你更快地看到格式转换带来的效果,直接提供了一份从 PDF转换的Markdown格式文档(开源PDF解析器Grobid)。但在实际工作中,编写代码将PDF妥善地转为 Markdown并非易事。
实际工作中,你也可以借助百炼提供的 DashScopeParse 来完成 PDF、Word 等格式的文件解析。DashScopeParse 背后使用了阿里云的文档智能服务,能够帮助你从 PDF、Word 等格式的文件中识别文档中的图片、提取出结构化的文本信息。
2.2.3 使用多种文档切片方法
在文档切片的过程中,切片方式会影响检索召回的效果。让我们通过具体例子来了解不同切片方法的特点。
2.2.3.1 Token 切片
适合对 Token 数量有严格要求的场景,比如使用上下文长度较小的模型时。
示例文本: “LlamaIndex是一个强大的RAG框架。它提供了多种文档处理方式。用户可以根据需要选择合适的方法。”
使用Token切片(chunk_size=10)后可能的结果:
切片1: “LlamaIndex是一个强大的RAG”
切片2: “框架。它提供了多种文”
切片3: “档处理方式。用户可以”
token_splitter = TokenTextSplitter( chunk_size=1024, chunk_overlap=20)evaluate_splitter(token_splitter, documents, question, ground_truth,"Token")2.2.3.2 句子切片
这是默认的切片策略,会保持句子的完整性。同样的文本使用句子切片后:
切片1: “LlamaIndex是一个强大的RAG框架。”
切片2: “它提供了多种文档处理方式。”
切片3: “用户可以根据需求选择合适的方法。”
sentence_splitter = SentenceSplitter( chunk_size=512, chunk_overlap=50)evaluate_splitter(sentence_splitter, documents, question, ground_truth,"Sentence")2.2.3.3 句子窗口切片
每个切片都包含周围的句子作为上下文窗口。示例文本使用句子窗口切片(window_size=1)后:
切片1: “LlamaIndex是一个强大的RAG框架。” 上下文: “它提供了多种文档处理方式。”
切片2: “它提供了多种文档处理方式。” 上下文: “LlamaIndex是一个强大的RAG框架。用户可以根据需求选择合适的方法。”
切片3: “用户可以根据需求选择合适的方法。” 上下文: “它提供了多种文档处理方式。”
sentence_window_splitter = SentenceWindowNodeParser.from_defaults( window_size=3, window_metadata_key="window", original_text_metadata_key="original_text")# 注意:句子窗口切片需要特殊的后处理器query_engine = index.as_query_engine( similarity_top_k=5, streaming=True,node_postprocessors=[MetadataReplacementPostProcessor(target_metadata_key="window")])evaluate_splitter(sentence_window_splitter, documents, question, ground_truth,"Sentence Window")2.2.3.4 语义切片
根据语义相关性自适应地选择切片点。
示例文本: “LlamaIndex是一个强大的RAG框架。它提供了多种文档处理方式。用户可以根据需求选择合适的方法。此外,它还支持向量检索。这种检索方式非常高效。”
语义切片可能的结果:
切片1: “LlamaIndex是一个强大的RAG框架。它提供了多种文档处理方式。用户可以根据需求选择合适的方法。”
切片2: “此外,它还支持向量检索。这种检索方式非常高效。” (注意这里是按语义相关性分组的)
semantic_splitter = SemanticSplitterNodeParser( buffer_size=1, breakpoint_percentile_threshold=95, embed_model=Settings.embed_model)evaluate_splitter(semantic_splitter, documents, question, ground_truth,"Semantic")2.2.3.5 Markdown 切片
专门针对 Markdown 文档优化的切片方法。
示例 Markdown 文本:
# RAG框架LlamaIndex是一个强大的RAG框架。## 特点- 提供多种文档处理方式- 支持向量检索- 使用简单方便### 详细说明用户可以根据需求选择合适的方法Markdown切片会根据标题层级进行智能分割:
切片1: “# RAG框架\nLlamaIndex是一个强大的RAG框架。”
切片2: “## 特点\n- 提供多种文档处理方式\n- 支持向量检索\n- 使用简单方便”
切片3: “### 详细说明\n用户可以根据需求选择合适的方法。”
markdown_splitter = MarkdownNodeParser()evaluate_splitter(markdown_splitter, documents, question, ground_truth,"Markdown")在实际应用中,选择切片方法时不必过于纠结,你可以这样思考:
✧ 如果你刚开始接触 RAG,建议先使用默认的句子切片方法,它在大多数场景下都能提供不错的效果
✧ 当你发现检索结果不够理想时,可以尝试:处理长文档且需要保持上下文?句子窗口切片
➢ 文档逻辑性强、内容专业?语义切片可能会有帮助
➢ 模型总是报 Token 超限?Token 切片可以帮你精确控制
➢ 处理 Markdown 文档?别忘了有专门的 Markdown 切片
没有最好的切片方法,只有最适合你场景的方法。你可以尝试不同的切片方法,观察 Ragas 评估结果,找到最适合你需求的方案。学习的过程就是不断尝试和调整的过程!
2.3 切片向量化与存储阶段
文档切片后,你还需要对其建立索引,以便后续检索。一个常见的方案是使用嵌入(Embedding)模型将切片向量化,并存储到向量数据库中。在这一阶段,你需要选择合适的 Embedding 模型以及向量数据库,这对于提升检索效果至关重要。
2.3.1 了解 Embedding 与向量化
Embedding 模型可以将文本转换为高维向量,用于表示文本语义,相似的文本会映射到相近的向量上,检索时可以根据问题的向量找到相似度高的文档切片。平面坐标系中的有向线段是 2 维向量。例如,从原点 (0, 0) 到 A (xa, ya) 的有向线段可以称为向量 A。向量 A 与向量 B 之间的夹角越小,也就意味着其相似度越高。
2.3.2 选择合适的 Embedding 模型
不同的 Embedding 模型对相同的几段文字进行计算时,得到的向量可能会完全不同。通常越新的 Embedding 模型,其表现越好。例如前文中使用的是阿里云百炼上提供的 text-embedding-v2。如果换成更新的版本 text-embedding-v3 你会发现即使不去做前面的优化,检索效果也会有一定的提升。
2.3.3 选择合适的向量数据库
在构建 RAG 应用时,你有多种向量存储方案可以选择,从简单到复杂依次是:
2.3.3.1 内存向量存储
最简单的方式是使用 LlamaIndex 内置的内存向量存储。只需安装 llama-index 包,无需额外配置,就能快速开发和测试 RAG 应用:
from llama_index.core import VectorStoreIndex# 创建内存向量索引index = VectorStoreIndex.from_documents(documents)
优点是快速上手,适合开发测试;缺点是数据无法持久化,且受限于内存大小。
2.3.3.2 本地向量数据库
当数据量增大时,可以使用开源的向量数据库,如 Milvus、Qdrant 等。这些数据库提供了数据持久化和高效检索能力
优点是功能完整、可控性强;缺点是需要自行部署维护。
2.3.3.3 云服务向量存储
对于生产环境,推荐使用云服务提供的向量存储能力。阿里云提供了多种选择:
✧ 向量检索服务(DashVector):按量付费、自动扩容,适合快速启动项目。详细功能请参考向量检索服务(DashVector)。
✧ 向量检索服务 Milvus 版:兼容开源 Milvus,便于迁移已有应用。详细功能请参考向量检索服务 Milvus 版。
✧ 已有数据库的向量能力:如果已使用阿里云数据库(RDS、PolarDB等),可直接使用其向量功能
云服务的优势在于:
✧ 无需关注运维,自动扩容
✧ 提供完善的监控和管理工具
✧ 按量付费,成本可控
✧ 支持向量 + 标量的混合检索,提升检索准确性
选择建议:
✧ 开发测试时使用内存向量存储
✧ 小规模应用可以使用本地向量数据库
✧ 生产环境推荐使用云服务,可根据具体需求选择合适的服务类型
2.4 检索召回阶段
检索阶段会遇到的主要问题就是,很难从众多文档切片中,找出和用户问题最相关、且包含正确答案信息的片段。从切入时机来看,可以将解法分为两大类:
✧ 在执行检索前,很多用户问题描述是不完整、甚至有歧义的,你需要想办法还原用户真实意图,以便提升检索效果。
➢ 问题改写
➢ 问题扩写 通过增加更多信息,让检索结果更全面
➢ 基于用户画像扩展上下文 结合用户信息、行为等数据扩写问题
➢ 提取标签 提取标签,用于后续标签过滤+向量相似度检索
➢ 反问用户
➢ 思考并规划多次检索
✧ 在执行检索后,你可能会发现存在一些无关的信息,需要想办法减少无关信息,避免干扰下一步的答案生成。
➢ 重排序 ReRank + 过滤 多数向量数据库会考虑效率,牺牲一定精确度,召回的切片中可能有一些实际相关性不够高
➢ 滑动窗口检索 在检索到一个切片后,补充前后相邻的若干个切片。这样做的原因是:相邻切片之间往往存在语义联系,仅看单个切片可能会丢失重要信息。 滑动窗口检索确保了不会因为过度切分而丢失文本间的语义连接。
2.5 生成答案阶段
现在,大模型会根据你的问题和检索召回的内容,生成最终的答案。然而,这个答案可能还是不及你的预期。你可能会遇到的问题有:
1)没有检索到相关信息,大模型捏造答案。
2)检索到了相关信息,但是大模型没有按照要求生成答案。
3)检索到了相关信息,大模型也给出了答案,但是你希望 AI 给出更全面的答案。
为了解决这些问题,你可以从以下角度着手分析与解决:
1)选择合适的大模型:简单常识问题、推理问题、专业领域
2)充分优化提示词模板:明确要求不编造答案、添加内容分隔标记、根据问题类型调整模板
3)调整大模型的参数:temperature、seed、top_p、top_k、max_tokens
4)调优大模型:如果上述方法都做了充分的尝试,仍然不及预期,或者希望有更进一步的效果提升,你也可以尝试面向你的场景调优一个模型。在后续的章节中,你将学习和实践这一点。
3. 小结
通过前面的学习,你已经了解了一个简单 RAG 的工作流程,以及常见优化手段。你也可以结合前面学习到的知识,结合实际需求,将不同的问题,路由到不同的 RAG 应用中,以构建一个能力更强大的模块化 RAG 应用。此外,通过前面的学习,你应该也能发现,大模型不只是可以用于构建问答系统。借助大模型识别用户意图、提取结构化信息(比如前面的根据用户问题提取标签),也能在很多其他应用场景中发挥作用。
当然,RAG 的优化手段远不止课程中介绍的这些,业内关于 RAG 的研究和探索也在持续进行,还有很多高级 RAG 课题值得你去学习。从前面的学习可以看到,构建一个完善、表现得足够好的 RAG 应用并不简单。而在实际工作中,你可能需要更快地捕捉业务机会,没有时间投入到这些细节完善中。以下是一些值得探索的方向:
1)GraphRAG:技术巧妙地结合了检索增强生成(RAG)和查询聚焦摘要(QFS)的优点,为处理大规模文本数据提供了一个强大的解决方案。它把两种技术的特长融合在一起:RAG 擅长找出精确的细节信息,而 QFS 则更善于理解和总结文章的整体内容。通过这种结合,GraphRAG 既能准确回答具体问题,又能处理需要深入理解的复杂查询,特别适合用来构建智能问答系统。
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇
一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书
2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:
- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:
- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!
1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:
2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:
3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:
![]()
三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!
路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
L5阶段:专题集丨特训篇 【录播课】
![]()
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇
2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!