news 2026/5/13 14:36:21

LLM基础知识,langchainV1.0讲解(一)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
LLM基础知识,langchainV1.0讲解(一)

NLP是什么?

NLP:自然语言处理

它的作用就是让计算机“理解、处理和生成人类语言”。

NLP发展史

1. 基于规则

这个阶段的NLP主要用于把自然语言中的信息,提取成程序能直接用的字段。

比如

  • 抽取时间、日期
  • 抽取金额、数量
  • 抽取编号、手机号、身份证号

用户输入了一段文本:“订单将于2025年5月1日发货,金额199元”,发现包含时间和金额就

{ "date": "2025-05-01", "price": 199 }

系统通过规则发现文本中包含时间和金额,于是解析成结构化数据。 后续业务程序只需要处理这段 JSON,而不再关心原始文本的自然语言形式

可以看出,在这个阶段的 NLP 中:

  • 系统不会理解用户的真实意图
  • 不会结合上下文进行推断
  • 不会补全隐含信息
  • 也不会“猜测”用户想表达什么

它只做一件事:

判断文本是否命中既定规则,并在命中时输出确定的结构化结果


因此,基于规则的 NLP 并不具备上下文理解能力
它更像是一个“语言格式解析器”,而不是“语言理解系统”。

2. 基于统计

核心思想

不再完全依赖人工规则,而是通过统计大量文本中词语的出现频率和组合规律,来推断语言模式。基于统计的

比如最简单的N_Gram模型

什么是 N-Gram?

N-Gram 假设:
当前词的出现,只与前面 N-1 个词有关。

例如:

  • 1-Gram:只看当前词本身
  • 2-Gram(Bigram):看前 1 个词
  • 3-Gram(Trigram):看前 2 个词

我们以2-Gram为列:会看前面的一个词。

我们将以下内容训练给模型:

“我 爱 吃 苹果” “我 爱 吃 香蕉” “我 喜欢 吃 苹果”

Bigram 模型会根据一个词统计下一个词出现的概率,这里我们可以数一数所有词对:

前一个词下一个词次数
2 次
喜欢1 次
2 次
喜欢1 次
苹果2 次
香蕉1 次

根据这个词的组合,就可以去预测一个词的下一个词,比如:

  • 后面出现“爱”的概率是 2/3,出现“喜欢”的概率是 1/3。
  • 后面出现“苹果”的概率是 2/3,出现“香蕉”的概率是 1/3。

所以:

如果你看到“我 爱 吃”,那下一个词大概率是“苹果”!

这里有人要问了:为什么有的词对是一个字,有的词对是两个字,这就涉及到token的概念了。

常说的token是什么?

Token 是模型处理文本的最小“计算单位”

每个颜色都代表一个token。可以看到“我爱吃苹果”这句话,转换成LL处理的最小单位就是

“我” “爱” “吃” “苹果”

那自然,在统计概率的时候,也要按照这个词对进行统计,因为模型处理的永远都是token,输出的时候也是按照token进行的输出。

3. 深度学习和大数据驱动

随着互联网的发展,文本数据规模呈指数级增长,同时计算能力(尤其是 GPU)的提升,使得深度学习方法开始被引入 NLP 领域

这一阶段的核心变化是:

不再人为设计规则或统计特征,而是让模型自动学习语言的表示和规律。


核心思想

在深度学习驱动的 NLP 中,系统不再只关心:

  • “这个词出现过多少次”
  • “下一个词的概率是多少”

而是开始学习:

词与词之间的语义关系,以及它们在上下文中的含义。(这个就是向量相似)


关键技术演进

1️⃣ 词向量(Word Embedding)

通过神经网络,将词映射到连续向量空间中:

“手机” ≈ “电脑” “北京” ≈ “上海”

相似语义的词,在向量空间中距离更近。

这使得模型第一次具备了“语义相似性”的概念


2️⃣ Transformer 模型

Transformer 的提出,彻底改变了 NLP 的发展方向。

它通过自注意力机制(Self-Attention)

  • 同时关注句子中的所有词
  • 捕捉长距离依赖
  • 大幅提升并行计算能力

这为大规模预训练模型奠定了基础。


预训练语言模型与大语言模型(LLM)

在 Transformer 架构基础上,人们提出了:

  • 预训练 + 微调(Pretrain + Finetune)
  • 超大规模语料训练

模型通过一个核心任务进行学习:

根据上下文,预测下一个词(Token)

但由于模型规模、数据规模和训练方式的跃迁,
这种“预测”逐渐表现出:

  • 语义理解
  • 推理能力
  • 生成能力

最终形成了今天的大语言模型(LLM)。


在这一阶段:

  • 模型不再依赖人工规则
  • 不再依赖人工特征
  • 可以在上下文中综合理解语言

总结

可以看出,目前的大语言模型在数学本质上仍然是概率模型,其推理与生成能力来源于统计学习与规模效应,而非人类意义上的主观思考。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

​因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 3:06:58

git 下载 Qwen3-32B模型时遇到的问题及解决方案

下载 Qwen3-32B 模型时的实战避坑指南 在当前大模型落地加速的背景下,越来越多团队开始尝试将高性能开源模型集成到实际业务中。通义千问最新发布的 Qwen3-32B,作为一款拥有320亿参数、支持128K超长上下文的语言模型,在代码生成、复杂推理和多…

作者头像 李华
网站建设 2026/5/12 10:48:21

如何用Fashion-MNIST打造智能时尚识别系统:终极实战指南

如何用Fashion-MNIST打造智能时尚识别系统:终极实战指南 【免费下载链接】fashion-mnist fashion-mnist - 提供了一个替代MNIST的时尚产品图片数据集,用于机器学习算法的基准测试。 项目地址: https://gitcode.com/gh_mirrors/fa/fashion-mnist 想…

作者头像 李华
网站建设 2026/5/12 13:59:47

PyTorch安装Stable Diffusion 3.5 FP8全攻略:从conda环境到CUDA配置

PyTorch安装Stable Diffusion 3.5 FP8全攻略:从conda环境到CUDA配置 在生成式AI飞速发展的今天,高质量图像生成已不再是实验室里的“奢侈品”。越来越多的企业和开发者希望将像 Stable Diffusion 3.5 这样的先进模型部署到生产环境中——无论是用于电商商…

作者头像 李华
网站建设 2026/5/11 16:12:19

终极右键菜单管理指南:ContextMenuManager让你的Windows更高效

终极右键菜单管理指南:ContextMenuManager让你的Windows更高效 【免费下载链接】ContextMenuManager 🖱️ 纯粹的Windows右键菜单管理程序 项目地址: https://gitcode.com/gh_mirrors/co/ContextMenuManager 你是否曾经面对过这样的场景&#xff…

作者头像 李华
网站建设 2026/5/11 21:09:24

HunyuanVideo-Foley实战教程:如何在本地部署并生成高质量视频音效

HunyuanVideo-Foley实战教程:如何在本地部署并生成高质量视频音效 你有没有遇到过这样的场景?一段精心拍摄的短视频,画面流畅、构图完美,却因为缺乏合适的背景音和动作音效而显得“干瘪”——人物走路没有脚步声,玻璃…

作者头像 李华
网站建设 2026/5/12 3:52:29

10个降AI率工具推荐,专科生开题必备!

10个降AI率工具推荐,专科生开题必备! 当AI痕迹成了论文的“致命伤” 对于许多专科生来说,开题报告和论文写作是大学生活中最让人头疼的一环。尤其是现在,随着AI技术的广泛应用,很多同学在撰写论文时都会借助一些AI工…

作者头像 李华