news 2026/4/15 10:28:22

极简LLM入门指南1

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
极简LLM入门指南1

LLM全景图:理解大模型技术栈

要开始使用大语言模型,首先需要理解几个基本概念。

LLM(大语言模型)是基于Transformer架构的模型,它处理文本的基本单位叫Token(中文通常是1-2个字符)。模型在一次处理中能接收的文本长度称为Context长度。另一个重要参数是Temperature,它控制输出的随机性——0表示确定性输出,更高的值会增加创意但降低可控性。

技术栈架构

以下是大模型应用的典型技术栈:

调用
使用
使用
依赖
依赖
依赖
依赖
应用层
ChatGPT
Claude
文心一言
编程框架
LangChain
LlamaIndex
vLLM
Ollama
闭源模型
GPT-4
Claude-3
开源模型
Llama-3
Qwen-7B
计算框架
PyTorch
TensorFlow
加速库
CUDA
TensorRT

主流模型对比

选择模型时,需要考虑成本、性能和你的具体需求。下面是目前常用的模型对比。

闭源模型

模型价格($/M tokens)优势劣势选择场景
GPT-430最强能力贵、慢复杂推理
GPT-3.50.5性价比高能力一般日常对话
Claude-315长文本(200K)中文一般文档处理

开源模型

模型参数显存需求特点部署难度
Llama-3-8B8B16GB综合最强简单
Qwen2.5-7B7B14GB中文最佳简单
DeepSeek-Coder7B14GB代码专精简单
Mixtral-8x7B46B96GBMoE架构困难

选型决策树

defselect_model(budget,use_case,privacy):ifprivacy=="high":return"Llama-3-8B"ifbudget<3000else"Llama-3-70B"ifuse_case=="code":return"GPT-4"ifbudget>1000/else"DeepSeek-Coder"elifuse_case=="chinese":return"Qwen2.5"ifprivacyelse"GPT-3.5"else:return"GPT-3.5"# 默认选择

基本使用方法

调用API

# 方式1:OpenAIfromopenaiimportOpenAI client=OpenAI(api_key="sk-...")response=client.chat.completions.create(model="gpt-3.5-turbo",messages=[{"role":"user","content":"Hello"}])print(response.choices[0].message.content)# 方式2:统一接口(支持多家API)importlitellm response=litellm.completion(model="claude-3-sonnet",# 或 gpt-4, gemini-pro 等messages=[{"role":"user","content":"Hello"}])

本地模型部署

如果你对数据隐私有顾虑,可以在本地部署开源模型:

# 方式1:使用Ollama(推荐新手)importrequests response=requests.post('http://localhost:11434/api/generate',json={"model":"llama3","prompt":"Hello"})print(response.json()['response'])# 方式2:使用TransformersfromtransformersimportAutoTokenizer,AutoModelForCausalLM model=AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-7B-Instruct")tokenizer=AutoTokenizer.from_pretrained("Qwen/Qwen2.5-7B-Instruct")inputs=tokenizer("Hello",return_tensors="pt")outputs=model.generate(**inputs,max_length=100)print(tokenizer.decode(outputs[0]))

流式输出

为了提高用户体验,你可以让模型逐字符输出结果,而不是一次性等待完整回复:

importsysforchunkinclient.chat.completions.create(model="gpt-3.5-turbo",messages=[{"role":"user","content":"写一首诗"}],stream=True):ifchunk.choices[0].delta.content:sys.stdout.write(chunk.choices[0].delta.content)sys.stdout.flush()

成本计算与选择

大模型的成本取决于你选择使用API还是本地部署。下面的工具可以帮你估算月度成本:

classLLMCostCalculator:"""成本计算工具"""# 价格表(美元/百万token)PRICES={"gpt-4":{"input":30,"output":60},"gpt-3.5":{"input":0.5,"output":1.5},"claude-3":{"input":15,"output":75},"本地7B":{"input":0,"output":0,"gpu_hour":0.5}}defcalculate_monthly_cost(self,model,daily_requests,avg_tokens=500):"""计算月度成本"""ifmodel.startswith("本地"):# 本地部署成本 = 电费 + 硬件折旧gpu_hours=daily_requests*0.01# 假设每请求0.01小时returngpu_hours*30*self.PRICES[model]["gpu_hour"]else:# API成本total_tokens=daily_requests*avg_tokens*30cost=total_tokens*self.PRICES[model]["output"]/1_000_000returncostdefrecommend_solution(self,daily_requests,budget):"""推荐方案"""ifdaily_requests<100:return"使用GPT-3.5 API"elifdaily_requests<1000:return"混合方案:本地7B + GPT-3.5备用"else:return"本地部署Llama-3或Qwen"# 使用示例calc=LLMCostCalculator()print(f"GPT-4月成本: ${calc.calculate_monthly_cost('gpt-4',100):.2f}")print(f"推荐方案:{calc.recommend_solution(500,100)}")

实际应用案例

不同的应用场景对模型和成本的需求不同。以下是几个常见案例:

应用推荐模型关键技术预算/月
智能客服GPT-3.5/Qwen-7BRAG+缓存$50-500
代码助手DeepSeek-Coder微调+IDE集成$0-100
文档问答Claude/Llama+RAG向量库+检索$100-1000
内容创作GPT-4/ClaudePrompt优化$500-5000

知识库问答是常见的应用场景。这里展示一个基本实现:

# 知识库问答最小实现fromlangchain.embeddingsimportOpenAIEmbeddingsfromlangchain.vectorstoresimportFAISSfromlangchain.chainsimportRetrievalQA# 1. 构建知识库texts=["文档1内容","文档2内容"]embeddings=OpenAIEmbeddings()vectorstore=FAISS.from_texts(texts,embeddings)# 2. 问答qa=RetrievalQA.from_llm(llm=ChatOpenAI(),retriever=vectorstore.as_retriever())answer=qa.run("问题")

优化与问题排解

使用LLM应用时,你可能会遇到一些常见的问题。以下是解决方案:

Token超限:如果上下文超过模型限制,使用滑动窗口截断早期的对话历史。

响应慢:启用流式输出可以让用户更快看到结果,同时缓存重复的请求也能显著加快速度。

成本高:可以采用混合部署策略,简单请求用本地小模型,复杂请求用API调用。

幻觉问题:大模型有时会生成虚假信息。使用RAG系统并降低temperature参数可以缓解这个问题。

性能优化示例

# 1. 缓存重复请求fromfunctoolsimportlru_cache@lru_cache(maxsize=1000)defcached_llm_call(prompt):returnllm.generate(prompt)# 2. 批处理responses=awaitasyncio.gather(*[llm.agenerate(prompt)forpromptinprompts])# 3. 模型量化(减少75%显存)model=AutoModelForCausalLM.from_pretrained("model_name",load_in_4bit=True)

学习路线

如果你是初学者,可以按以下步骤学习:

  • 第1周:调通API,实现一个基础对话应用
  • 第2周:加入RAG知识库功能,部署到Web界面

有用的资源包括Ollama(本地模型部署)、LangChain(应用框架)和Hugging Face(模型仓库)。

实践建议

  • 从API开始。大多数初学者应该先用现成的API服务测试想法,而不是立即部署本地模型。
  • 测试不同的模型。每个模型的成本和性能不同,找到适合你用例的组合需要实验。
  • 关注成本。如果你的应用会频繁调用模型,选择正确的模型和优化方案可以显著降低成本。
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/15 7:20:02

极简LLM入门指南4

Prompt工程&#xff1a;如何让AI更好地理解你 构建LLM应用的核心不只是调用API&#xff0c;更关键的是如何给模型写出有效的指令。同样的问题&#xff0c;用不同的方式提问&#xff0c;结果质量可能相差很大。这就是Prompt工程的核心价值。 本文需要先完成第03篇的内容&#xf…

作者头像 李华
网站建设 2026/4/15 9:32:22

MyBatis 扩展BaseTypeHandler 转换泛型 JSON 列表

最近发现一个mybatis里面json转换的bug, 写了这么多年Java这方面还是没有理清楚, 把正确的处理方法记录一下. 一. 对象JSON转换 这个是比较简单的情况, 有通用的处理方法, 例如 用Jackson实现一个通用的 TypeHandler Slf4j public class JacksonTypeHandler<T> extends B…

作者头像 李华
网站建设 2026/4/7 4:21:34

18、日期和时间管理函数全解析

日期和时间管理函数全解析 1. LAST_DAY 与 TRUNC、ADD_MONTHS 获取月末日期的差异 在处理日期时,我们常常需要获取一个月的最后一天。这里有两种常见的方法:使用 LAST_DAY 函数和结合 TRUNC 与 ADD_MONTHS 函数。 使用 LAST_DAY 函数 : select LAST_DAY(sysdate…

作者头像 李华
网站建设 2026/4/13 20:39:14

曾经的王,SpringBoot 倒下了!!!

2025年&#xff0c;不会AI的Java工程师&#xff0c;真的要被淘汰了吗&#xff1f;这两年AI编程确实很火热&#xff0c;甚至很多非程序员都能使用AI编程来开发APP应用&#xff0c;所有人都在看着程序员这个岗位什么时候能够被AI替代掉。但是反直觉的是&#xff0c;虽然在传统开发…

作者头像 李华
网站建设 2026/4/10 1:44:17

51、构建安全的 Syslog-ng 服务器:SSL 密钥创建与配置指南

构建安全的 Syslog-ng 服务器:SSL 密钥创建与配置指南 在网络管理中,确保日志服务器的安全性至关重要。本文将详细介绍在 Debian 和 Fedora 系统上为 Syslog-ng 服务器创建 SSL 密钥,以及配置 stunnel 和 Syslog-ng 的具体步骤。 1. 邮件服务器消息测试与访问控制 在进行…

作者头像 李华
网站建设 2026/4/12 9:52:54

4、F-RAN技术:应用案例与发展趋势

F-RAN技术:应用案例与发展趋势 1. F-RAN概述 F-RAN(Fog Radio Access Network)作为5G的先进技术解决方案,与仅使用C-RAN模式相比,通过自适应模型选择,F-RAN可以带来更高的频谱效率(SE)和更低的延迟,同时还能够提高能源效率(EE)。在实际的F-RAN中,关联模式是关键,…

作者头像 李华