news 2026/1/11 6:22:37

工程师学AI:检索增强RAG提升问答准确性

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
工程师学AI:检索增强RAG提升问答准确性

RAG检索增强生成技术,“先检索、后生成”的模式,能有效地将精准的外部知识与大模型结合,从而在不超出限制的前提下,让模型能够回答私域知识问题。在你的大模型应用中引入RAG方案能够扩展大模型所能处理的知识范围,本篇我们将基于阿里云大模型ACP培训课程内容,更深入地了解RAG工作流程,并尝试提升你的RAG应用问答准确度。

1)RAG的工作流程及原理

2)RAG应用效果评估

3)RAG应用各个环节常见问题及改进策略

1.熟悉 RAG 的工作流程

RAG(Retrieval Augmented Generation,检索增强生成)是一种结合了信息检索和生成式模型的技术,能够在生成答案时利用外部知识库中的相关信息。它的工作流程可以分为几个关键步骤:解析与切片、向量存储、检索召回、生成答案等

正如前言提到的,你需要让大模型拿到正确的"参考书",才能给出正确的"答案"。因此,你可以尝试增加每次拿到"参考书"的数量(增加召回的文档切片数量),或者将"参考书中的知识点"整理成结构化的表格(文档内容结构化)。基本优惠思路:

1.1 让大模型获取到更多参考信息

既然知识库中存在我们想要的信息,那么你可以通过增加一次性召回的文档切片数量的方式,从而扩大检索范围,提升找到相关信息的概率,也即是增加代码中召回文档切片的数量,观察召回效果是否得到了提升。

1)调整代码

index = rag.load_index()query_engine = index.as_query_engine(streaming=True,similarity_top_k=5)# 一次检索出 5 个文档切片,默认为 2

2)评估改进效果:为了评估改进效果,需要引入Ragas量化改进效果。

如何通过 Ragas 对 RAG 应用进行评测?如何通过 Ragas 分数来定位并解决问题?RAG 自动化评测体系:为了系统化地评测RAG系统,业界出现了一些非常实用的开源自动化评测框架,这些框架通常会从以下几个维度进行评估:

✧ 召回质量 (Retrieval Quality): RAG系统是否检索到了正确且相关的文档片段?

✧ 答案忠实度 (Faithfulness): 生成的答案是否完全基于检索到的上下文,没有“胡编乱造”(幻觉)?

✧ 答案相关性 (Answer Relevance): 生成的答案是否准确地回答了用户的问题?

✧ 上下文利用率/效率 (Context Utilization/Efficiency): 大模型是否有效地利用了所有提供给它的上下文信息?(这与我们之前提到的“Lost in the Middle”和“知识浓度”密切相关)

1.1.1Ragas评估效果

Ragas的评估指标高度契合RAG系统的痛点,主要包括:

1)整体回答质量的评估:

Answer Correctness,用于评估 RAG 应用生成答案的准确度。

2)生成环节的评估:

✧ Answer Relevancy,用于评估 RAG 应用生成的答案是否与问题相关。

✧ Faithfulness,用于评估RAG应用生成答案和检索到的参考资料的事实一致性。

3)召回阶段的评估:

✧ Context Precision,用于评估 contexts 中与准确答案相关的条目是否排名靠前、占比高(信噪比)。

✧ Context Recall,用于评估有多少相关参考资料被检索到,越高的得分意味着更少的相关参考资料被遗漏。

Ragas 还提供了很多其他的指标,这里就不一一介绍,你可以访问Ragas的文档来查看更多指标的适用场景和工作原理。Ragas支持的指标可以访问:https://docs.ragas.io/en/stable/concepts/metrics/available_metrics/

1.1.2上下文是 RAG 的生命线

当用户提出一个问题时,大模型通过阅读理解你提供的上下文(Context) 来给出回答。上下文决定了大模型能否给出准确、完整的答案。如果上下文缺失重要知识点,或存在错误、无关的内容,大模型就无法给出正确的结论。为了不丢失有效知识,有人提出把全部可用资料“一股脑全部灌给大模型”,让大模型来做甄别,结果产生了一个更复杂的问题:即使某个关键线索确实存在于你提供的大量资料中,但如果它被埋藏在海量的无关信息里,大模型也很可能会“视而不见”,这便是 RAG 系统中常说的“Lost in the Middle”现象。

RAG精度的瓶颈,往往不在于大模型本身是否足够“聪明”,而在于你提供给它的上下文(Context)的“知识浓度”。一个高质量的上下文,理应具有较高的知识浓度,意味着其中的相关信息密度高、噪音少、与问题直接关联。能让大模型准确地专注问题核心,得出正确结论。因此,你提供的上下文质量,直接决定了 RAG 系统的上限。在Ragas中Context Recall 和 Context Precision 就是来衡量召回的上下文的有效性的。你可以通过分析这两个指标来确认你的RAG系统召回上下文的质量有没有提升。

1)context recall

context recall指标评测的是RAG应用在检索阶段的表现。如果该指标得分较低,你可以尝试从以下方面进行优化:

✧ 检查知识库:知识库是RAG应用的源头,如果知识库的内容不够完备,则会导致召回的参考信息不充分,从而影响context recall。你可以对比知识库的内容与测试样本,观察知识库的内容是否可以支持每一条测试样本(这个过程你也可以借助大模型来完成)。如果你发现某些测试样本缺少相关知识,则需要对知识库进行补充。

✧ 更换embedding模型:如果你的知识库内容已经很完备,则可以考虑更换embedding模型。好的embedding模型可以理解文本的深层次语义,如果两句话深层次相关,那么即使“看上去”不相关,也可以获得较高的相似度分数。

2)context precision

与context recall一样,context precision指标评测的也是RAG应用在检索阶段的表现,但是更注重相关的文本段是否具有靠前的排名。如果该指标得分较低,你可以尝试context recall中的优化措施,并且可以尝试在检索阶段加入rerank(重排序),来提升相关文本段的排名。

3)answer correctness

answer correctness指标评测的是RAG系统整体的综合指标。如果该指标得分较低,而前两项分数较高,说明RAG系统在检索阶段表现良好,但是生成阶段出了问题。你可以尝试前边教程学到的方法,如优化prompt、调整大模型生成的超参数(如temperature)等,你也可以更换性能更加强劲的大模型,甚至对大模型进行微调(后边的教程会介绍)等方法来提升生成答案的准确度。

1.2给大模型结构更清晰的参考信息

在实际应用中,文档的组织结构对检索效果有着重要影响。想象一下,同样的信息,放在一个结构清晰的表格中和散落在一段普通文字里,哪个更容易查找和理解?显然是前者。大语言模型也是如此。当把原本在表格中的信息转换成普通文本时,虽然信息本身没有丢失,但结构性却降低了。这就像是把一个整齐的抽屉变成了一堆散乱的物品,虽然东西都在,但查找起来就没那么方便了。

1)重建索引:Markdown格式是一个很好的选择,因为它:

✧结构清晰,层次分明

✧语法简单,易于阅读和维护

✧特别适合RAG(检索增强生成)场景下的文档组织

2)评估改进效果:改为Markdown格式之后可以重新评估RAG应用效果。

2. RAG应用各个环节与改进策略

为了进一步优化RAG应用效果,接下来,将从 RAG 中的每一个环节入手,尝试优化 RAG 的效果。

2.1 文档准备阶段

在没有大模型之前我们会根据用户所提问题,积累知识库,并共享其他人。在构建 RAG 应用时,这一过程同样不可缺少。

✧ 意图空间:我们可以把用户提问背后的需求绘制成点,这些点组成了一个用户意图空间。

✧ 知识空间:而你沉淀在知识库文档中的知识点,则构成了组成一个知识空间。这里的知识点,可以是一个段落、或者一个章节。

当我们将意图空间和知识空间投影到一起,会发现两个空间存在交集与差异,用户意图空间vs知识空间映射示意。

这些区域分别对应了我们后续的三个优化策略。

✧ 重叠区域:即可以依靠知识库的内容来回答用户问题的部分,这是 RAG 应用效果保障的基础。对于这部分用户意图,你可以通过优化内容质量、优化工程和算法,不断地提升回答质量。

✧ 未被覆盖的意图空间:因为缺乏知识库内容的支撑,大模型容易输出“幻觉”回答。例如,由于新业务发展,我们需要引入“qRPC核酸检测扩增曲线分析方面的理论与技术“,但知识库中没有相关文档,不论如何改进工程算法,RAG 应用都无法准确回答这一问题。你需要做的是主动补充缺漏的知识,不断跟进用户意图空间的变化。

✧ 未被利用的知识空间:召回不相关知识点可能会干扰大模型的回答。因此,需要你优化召回算法避免召回无关内容。此外,你还需要定期查验知识库,剔除无关内容。

在尝试优化工程或算法之前,你应该优先构建一套可以持续收集用户意图的机制。通过系统化采集真实用户需求来完善知识库内容,并邀请对用户意图有深刻理解的领域专家参与效果评估,形成"数据采集-知识更新-专家验证"的闭环优化流程,保障RAG 应用的效果。

2.2 文档解析与切片阶段

首先,RAG 应用会解析你的文档内容,然后对文档内容进行切片。

大模型在回答问题时拿到的文档切片如果缺少关键信息,会回答不准确;如果拿到的文档切片非关联信息过多(噪声),也会影响回答质量。即过少或过多的信息,都会影响模型的回答效果。因此,在对文档进行解析与切片时,需要确保最终的切片信息完整,但不要包含太多干扰信息。

2.2.1 问题分类及改进策略

在文档解析与切片阶段,你可能会遇到以下问题:

类别细分类型改进策略场景化示例
文档解析文档类型不统一,部分格式的文档不支持解析比如前面用到的 SimpleDirectoryLoader 并不支持 Keynote 格式的文件开发对应格式的解析器,或转换文档格式Keynote文件->Keynote 解析器或将文件转换为支持的格式(如 PDF-PDF解析器)。
已支持解析的文档格式里,存在一些特殊内容比如文档里嵌入了表格、图片、视频等改进文档解析器例如,某文档中包含了大量的表格和图片,现有解析器无法正确提取表格中的信息。可以改进解析器,使其能够处理表格和图片。
文档切片文档中有很多主题接近的内容比如工作手册文档中,需求分析、开发、发布等每个阶段都有注意事项、操作指导扩写文档标题及子标题「注意事项」=>「需求分析>注意事项」建立文档元数据(打标)例如,某文档中包含多个阶段的注意事项,用户提问“需求分析的注意事项是什么?”时,系统返回了所有阶段的注意事项。可以通过扩展标题和打标来区分不同阶段的内容。
文档切片长度过大,引入过多干扰项减少切片长度,或结合具体业务开发为更合适的切片策略例如,某文档的切片长度过大,包含了多个不相关的主题,导致检索时返回了无关信息。可以减少切片长度,确保每个切片只包含一个主题。
文档切片长度过短,有效信息被截断扩大切片长度,或结合具体业务开发为更合适的切片策略例如,某文档中每个切片只有一句话,导致检索时无法获取完整的上下文信息。可以增加切片长度,确保每个切片包含完整的上下文。

2.2.2 借助百炼解析 PDF 文件

在前面的学习过程中,为了让你更快地看到格式转换带来的效果,直接提供了一份从 PDF转换的Markdown格式文档(开源PDF解析器Grobid)。但在实际工作中,编写代码将PDF妥善地转为 Markdown并非易事。

实际工作中,你也可以借助百炼提供的 DashScopeParse 来完成 PDF、Word 等格式的文件解析。DashScopeParse 背后使用了阿里云的文档智能服务,能够帮助你从 PDF、Word 等格式的文件中识别文档中的图片、提取出结构化的文本信息。

2.2.3 使用多种文档切片方法

在文档切片的过程中,切片方式会影响检索召回的效果。让我们通过具体例子来了解不同切片方法的特点。

2.2.3.1 Token 切片

适合对 Token 数量有严格要求的场景,比如使用上下文长度较小的模型时。

示例文本: “LlamaIndex是一个强大的RAG框架。它提供了多种文档处理方式。用户可以根据需要选择合适的方法。”

使用Token切片(chunk_size=10)后可能的结果:

切片1: “LlamaIndex是一个强大的RAG”

切片2: “框架。它提供了多种文”

切片3: “档处理方式。用户可以”

token_splitter = TokenTextSplitter( chunk_size=1024, chunk_overlap=20)evaluate_splitter(token_splitter, documents, question, ground_truth,"Token")
2.2.3.2 句子切片

这是默认的切片策略,会保持句子的完整性。同样的文本使用句子切片后:

切片1: “LlamaIndex是一个强大的RAG框架。”

切片2: “它提供了多种文档处理方式。”

切片3: “用户可以根据需求选择合适的方法。”

sentence_splitter = SentenceSplitter( chunk_size=512, chunk_overlap=50)evaluate_splitter(sentence_splitter, documents, question, ground_truth,"Sentence")
2.2.3.3 句子窗口切片

每个切片都包含周围的句子作为上下文窗口。示例文本使用句子窗口切片(window_size=1)后:

切片1: “LlamaIndex是一个强大的RAG框架。” 上下文: “它提供了多种文档处理方式。”

切片2: “它提供了多种文档处理方式。” 上下文: “LlamaIndex是一个强大的RAG框架。用户可以根据需求选择合适的方法。”

切片3: “用户可以根据需求选择合适的方法。” 上下文: “它提供了多种文档处理方式。”

sentence_window_splitter = SentenceWindowNodeParser.from_defaults( window_size=3, window_metadata_key="window", original_text_metadata_key="original_text")# 注意:句子窗口切片需要特殊的后处理器query_engine = index.as_query_engine( similarity_top_k=5, streaming=True,node_postprocessors=[MetadataReplacementPostProcessor(target_metadata_key="window")])evaluate_splitter(sentence_window_splitter, documents, question, ground_truth,"Sentence Window")
2.2.3.4 语义切片

根据语义相关性自适应地选择切片点。

示例文本: “LlamaIndex是一个强大的RAG框架。它提供了多种文档处理方式。用户可以根据需求选择合适的方法。此外,它还支持向量检索。这种检索方式非常高效。”

语义切片可能的结果:

切片1: “LlamaIndex是一个强大的RAG框架。它提供了多种文档处理方式。用户可以根据需求选择合适的方法。”

切片2: “此外,它还支持向量检索。这种检索方式非常高效。” (注意这里是按语义相关性分组的)

semantic_splitter = SemanticSplitterNodeParser( buffer_size=1, breakpoint_percentile_threshold=95, embed_model=Settings.embed_model)evaluate_splitter(semantic_splitter, documents, question, ground_truth,"Semantic")
2.2.3.5 Markdown 切片

专门针对 Markdown 文档优化的切片方法。

示例 Markdown 文本:

# RAG框架LlamaIndex是一个强大的RAG框架。## 特点- 提供多种文档处理方式- 支持向量检索- 使用简单方便### 详细说明用户可以根据需求选择合适的方法

Markdown切片会根据标题层级进行智能分割:

切片1: “# RAG框架\nLlamaIndex是一个强大的RAG框架。”

切片2: “## 特点\n- 提供多种文档处理方式\n- 支持向量检索\n- 使用简单方便”

切片3: “### 详细说明\n用户可以根据需求选择合适的方法。”

markdown_splitter = MarkdownNodeParser()evaluate_splitter(markdown_splitter, documents, question, ground_truth,"Markdown")

在实际应用中,选择切片方法时不必过于纠结,你可以这样思考:

✧ 如果你刚开始接触 RAG,建议先使用默认的句子切片方法,它在大多数场景下都能提供不错的效果

✧ 当你发现检索结果不够理想时,可以尝试:处理长文档且需要保持上下文?句子窗口切片

➢ 文档逻辑性强、内容专业?语义切片可能会有帮助

➢ 模型总是报 Token 超限?Token 切片可以帮你精确控制

➢ 处理 Markdown 文档?别忘了有专门的 Markdown 切片

没有最好的切片方法,只有最适合你场景的方法。你可以尝试不同的切片方法,观察 Ragas 评估结果,找到最适合你需求的方案。学习的过程就是不断尝试和调整的过程!

2.3 切片向量化与存储阶段

文档切片后,你还需要对其建立索引,以便后续检索。一个常见的方案是使用嵌入(Embedding)模型将切片向量化,并存储到向量数据库中。在这一阶段,你需要选择合适的 Embedding 模型以及向量数据库,这对于提升检索效果至关重要。

2.3.1 了解 Embedding 与向量化

Embedding 模型可以将文本转换为高维向量,用于表示文本语义,相似的文本会映射到相近的向量上,检索时可以根据问题的向量找到相似度高的文档切片。平面坐标系中的有向线段是 2 维向量。例如,从原点 (0, 0) 到 A (xa, ya) 的有向线段可以称为向量 A。向量 A 与向量 B 之间的夹角越小,也就意味着其相似度越高。

2.3.2 选择合适的 Embedding 模型

不同的 Embedding 模型对相同的几段文字进行计算时,得到的向量可能会完全不同。通常越新的 Embedding 模型,其表现越好。例如前文中使用的是阿里云百炼上提供的 text-embedding-v2。如果换成更新的版本 text-embedding-v3 你会发现即使不去做前面的优化,检索效果也会有一定的提升。

2.3.3 选择合适的向量数据库

在构建 RAG 应用时,你有多种向量存储方案可以选择,从简单到复杂依次是:

2.3.3.1 内存向量存储

最简单的方式是使用 LlamaIndex 内置的内存向量存储。只需安装 llama-index 包,无需额外配置,就能快速开发和测试 RAG 应用:

from llama_index.core import VectorStoreIndex# 创建内存向量索引index = VectorStoreIndex.from_documents(documents)

优点是快速上手,适合开发测试;缺点是数据无法持久化,且受限于内存大小。

2.3.3.2 本地向量数据库

当数据量增大时,可以使用开源的向量数据库,如 Milvus、Qdrant 等。这些数据库提供了数据持久化和高效检索能力

优点是功能完整、可控性强;缺点是需要自行部署维护。

2.3.3.3 云服务向量存储

对于生产环境,推荐使用云服务提供的向量存储能力。阿里云提供了多种选择:

✧ 向量检索服务(DashVector):按量付费、自动扩容,适合快速启动项目。详细功能请参考向量检索服务(DashVector)。

✧ 向量检索服务 Milvus 版:兼容开源 Milvus,便于迁移已有应用。详细功能请参考向量检索服务 Milvus 版。

✧ 已有数据库的向量能力:如果已使用阿里云数据库(RDS、PolarDB等),可直接使用其向量功能

云服务的优势在于:

✧ 无需关注运维,自动扩容

✧ 提供完善的监控和管理工具

✧ 按量付费,成本可控

✧ 支持向量 + 标量的混合检索,提升检索准确性

选择建议:

✧ 开发测试时使用内存向量存储

✧ 小规模应用可以使用本地向量数据库

✧ 生产环境推荐使用云服务,可根据具体需求选择合适的服务类型

2.4 检索召回阶段

检索阶段会遇到的主要问题就是,很难从众多文档切片中,找出和用户问题最相关、且包含正确答案信息的片段。从切入时机来看,可以将解法分为两大类:

✧ 在执行检索前,很多用户问题描述是不完整、甚至有歧义的,你需要想办法还原用户真实意图,以便提升检索效果。

➢ 问题改写

➢ 问题扩写 通过增加更多信息,让检索结果更全面

➢ 基于用户画像扩展上下文 结合用户信息、行为等数据扩写问题

➢ 提取标签 提取标签,用于后续标签过滤+向量相似度检索

➢ 反问用户

➢ 思考并规划多次检索

✧ 在执行检索后,你可能会发现存在一些无关的信息,需要想办法减少无关信息,避免干扰下一步的答案生成。

➢ 重排序 ReRank + 过滤 多数向量数据库会考虑效率,牺牲一定精确度,召回的切片中可能有一些实际相关性不够高

➢ 滑动窗口检索 在检索到一个切片后,补充前后相邻的若干个切片。这样做的原因是:相邻切片之间往往存在语义联系,仅看单个切片可能会丢失重要信息。 滑动窗口检索确保了不会因为过度切分而丢失文本间的语义连接。

2.5 生成答案阶段

现在,大模型会根据你的问题和检索召回的内容,生成最终的答案。然而,这个答案可能还是不及你的预期。你可能会遇到的问题有:

1)没有检索到相关信息,大模型捏造答案。

2)检索到了相关信息,但是大模型没有按照要求生成答案。

3)检索到了相关信息,大模型也给出了答案,但是你希望 AI 给出更全面的答案。

为了解决这些问题,你可以从以下角度着手分析与解决:

1)选择合适的大模型:简单常识问题、推理问题、专业领域

2)充分优化提示词模板:明确要求不编造答案、添加内容分隔标记、根据问题类型调整模板

3)调整大模型的参数:temperature、seed、top_p、top_k、max_tokens

4)调优大模型:如果上述方法都做了充分的尝试,仍然不及预期,或者希望有更进一步的效果提升,你也可以尝试面向你的场景调优一个模型。在后续的章节中,你将学习和实践这一点。

3. 小结

通过前面的学习,你已经了解了一个简单 RAG 的工作流程,以及常见优化手段。你也可以结合前面学习到的知识,结合实际需求,将不同的问题,路由到不同的 RAG 应用中,以构建一个能力更强大的模块化 RAG 应用。此外,通过前面的学习,你应该也能发现,大模型不只是可以用于构建问答系统。借助大模型识别用户意图、提取结构化信息(比如前面的根据用户问题提取标签),也能在很多其他应用场景中发挥作用。

当然,RAG 的优化手段远不止课程中介绍的这些,业内关于 RAG 的研究和探索也在持续进行,还有很多高级 RAG 课题值得你去学习。从前面的学习可以看到,构建一个完善、表现得足够好的 RAG 应用并不简单。而在实际工作中,你可能需要更快地捕捉业务机会,没有时间投入到这些细节完善中。以下是一些值得探索的方向:

1)GraphRAG:技术巧妙地结合了检索增强生成(RAG)和查询聚焦摘要(QFS)的优点,为处理大规模文本数据提供了一个强大的解决方案。它把两种技术的特长融合在一起:RAG 擅长找出精确的细节信息,而 QFS 则更善于理解和总结文章的整体内容。通过这种结合,GraphRAG 既能准确回答具体问题,又能处理需要深入理解的复杂查询,特别适合用来构建智能问答系统。

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】


四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/30 8:11:18

Maxar开放数据:解锁全球灾害监测的卫星影像宝库

Maxar开放数据:解锁全球灾害监测的卫星影像宝库 【免费下载链接】maxar-open-data The Maxar Open Data STAC Catalog in CSV, GeoJSON, and MosaicJSON formats 项目地址: https://gitcode.com/gh_mirrors/ma/maxar-open-data Maxar开放数据项目为技术爱好者…

作者头像 李华
网站建设 2025/12/22 13:51:20

软件测试专栏——黑盒测试

黑盒测试概述黑盒测试,它是通过测试来检测每个功能是否都能正常使用。在测试中,把程序看作一个不能打开的黑盒子,在完全不考虑程序内部结构和内部特性的情况下,在程序接口进行测试,它只检查程序功能是否按照需求规格说…

作者头像 李华
网站建设 2026/1/4 6:24:23

从零搭建量子ML可视化环境,手把手教你配置VSCode的6个关键插件

第一章:量子机器学习的 VSCode 数据可视化在量子机器学习研究中,数据可视化是理解高维量子态与模型行为的关键环节。借助 Visual Studio Code(VSCode)强大的扩展生态,开发者能够将复杂的量子计算结果以直观图形呈现&am…

作者头像 李华
网站建设 2026/1/11 6:01:08

Azure CLI导出量子计算结果的隐藏命令,资深工程师不愿透露的秘密

第一章:Azure CLI量子作业结果导出概述在使用 Azure Quantum 服务进行量子计算实验时,用户通常需要将作业执行结果导出至本地或第三方系统进行后续分析。Azure CLI 提供了一套简洁高效的命令行接口,支持用户查询、获取并导出量子作业的运行结…

作者头像 李华
网站建设 2025/12/30 22:11:57

从零构建边缘Docker监控体系(含Prometheus+Grafana实战配置)

第一章:边缘Docker监控的挑战与架构设计 在边缘计算环境中,Docker容器广泛用于部署轻量级、可移植的应用服务。然而,受限的硬件资源、网络不稳定性和地理分布特性,给监控系统的构建带来了显著挑战。传统的集中式监控方案难以适应边…

作者头像 李华
网站建设 2025/12/31 7:50:01

5个关键技巧:完全掌握DuckDB与C++嵌入式数据库集成

5个关键技巧:完全掌握DuckDB与C嵌入式数据库集成 【免费下载链接】duckdb 项目地址: https://gitcode.com/gh_mirrors/duc/duckdb 还在为C应用寻找合适的数据存储方案而烦恼吗?想要在应用中嵌入高性能分析能力却担心复杂的依赖关系?D…

作者头像 李华