news 2026/1/18 8:25:49

用Unsloth微调一个老中医大模型

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
用Unsloth微调一个老中医大模型

本文介绍了如何使用Unsloth框架微调大语言模型,以《伤寒论》数据集为例训练一个中医专家模型。Unsloth显著降低了微调的资源需求。文章涵盖了从环境配置、模型选择、数据准备到训练部署的完整流程,为垂直领域模型微调提供了实用参考。

在实际应用中,我们常常面临特定场景下的问题需求。此时,通过指令微调可以让模型更好地适应这些具体任务,从而提升模型的实用性和表现。

比如:在医疗健康领域,医生希望让大模型更好地理解中医诊断和治疗的知识体系,从而能够辅助分析病情、推荐中药方剂,甚至自动生成病历摘要。又如,在法律行业,律师团队希望通过微调,让大模型能够更准确地解读中国法律条文、判例和合同文本,辅助法律检索和文书生成。此外,在教育领域,教师可以通过指令微调,让模型更贴合本地教材内容,自动批改作业、生成个性化学习建议。这些场景都需要针对特定任务和数据对大模型进行定制化微调,以提升其在实际应用中的表现和价值。

正好最近身体不适,并且得到一本医疗秘籍《伤寒论》,用Unsloth来微调一个垂直领域的模型出来。

1. 关于Unsloth


大型语言模型(LLM)的微调有很大的资源挑战,如高昂的内存需求和漫长的训练时间。

传统的微调方法,可能需要数十小时才能完成一项任务,并且常常导致内存不足问题 。这种特性限制了个人开发者和小型团队对 LLM 进行定制化和优化的能力。

Unsloth 正是为了解决这些痛点而诞生的。

它是一个专门为加速 LLM 微调并显著降低内存消耗而设计的 Python 框架 。

Unsloth 实现了显著的性能提升,同时保持了与 Hugging Face 生态系统的完全兼容性 。这使得用户即使在免费的 Colab GPU 或配备 GPU 的笔记本电脑等有限硬件上,也能够高效地进行 LLM 微调 。

2. Unsloth 的核心优势


速度提升

在Alpaca 数据集上进行了测试,使用的 batch 大小为 2,gradient accumulation steps 为 4,rank 为 32,并在所有线性层(q、k、v、o、gate、up、down)上应用了 QLoRA

ModelVRAMUnsloth speedVRAM reductionLonger contextHugging Face + FA2
Llama 3.3 (70B)80GB2x>75%13x longer1x
Llama 3.1 (8B)80GB2x>70%12x longer1x

测试结果显示,两种模型在显存使用上均为80GB,速度均提升了2倍。Llama 3.3的显存减少了超过75%,能够处理的上下文长度提升了13倍;而Llama 3.1的显存减少了超过70%,上下文长度提升了12倍。

API 简化

Unsloth 提供了一个简洁的 API,显著降低了 LLM 微调的复杂性 。它将模型加载、量化、训练、评估、保存、导出以及与 Ollama、llama.cpp 和 vLLM 等推理引擎的集成等所有工作流程进行了简化 。

Hugging Face 生态系统兼容性

Unsloth 是在 Hugging Face Transformers 库之上构建的,这使其能够充分利用 Hugging Face 强大的生态系统,同时添加自己的增强功能来简化微调过程 。

它与 Hugging Face Hub、Transformers、PEFT 和 TRL 等组件完全兼容 。这意味着用户可以无缝地访问 Hugging Face 提供的丰富模型和数据集资源,并利用 Unsloth 的优化进行训练。

硬件兼容性与可访问性

Unsloth 支持非常多的 NVIDIA GPU,从 2018 年及以后发布的型号,包括 V100、T4、Titan V、RTX 20、30、40 系列、A100 和 H100 等,最低 CUDA 能力要求为 7.0。即使是 GTX 1070 和 1080 也能工作,尽管速度较慢 。

Unsloth 可以在 Linux 和 Windows 操作系统上运行 。

广泛的模型支持

Unsloth 支持所有 Transformer 风格的模型,包括 Llama、DeepSeek、TTS、Qwen、Mistral、Gemma 等主流 LLM。它还支持多模态模型、文本到语音 (TTS)、语音到文本 (STT) 模型、BERT 模型以及扩散模型。

动态量化

Unsloth 引入了动态 4 位量化 (Dynamic 4-bit Quantization) 技术,这是一种智能的量化策略,通过动态选择不对某些参数进行量化,从而在仅增加不到 10% VRAM 的情况下显著提高准确性 。

社区的活跃

从GitHub上可以看出,他的受欢迎程度非常高,目前已经43k颗星

项目地址:https://github.com/unslothai/unsloth

3. 使用要求


支持 Linux 和 Windows。

支持 2018 年及以后的 NVIDIA 显卡,包括 Blackwell RTX 50 系列。最低要求 CUDA 计算能力为 7.0(如 V100、T4、Titan V、RTX 20、30、40 系列,以及 A100、H100、L40 等)。GTX 1070、1080 虽然可以使用,但运行速度较慢。

相关阅读:一文说清楚CUDA环境

GPU内存要求:

Model parametersQLoRA (4-bit) VRAMLoRA (16-bit) VRAM
3B3.5 GB8 GB
7B5 GB19 GB
8B6 GB22 GB
9B6.5 GB24 GB
11B7.5 GB29 GB
14B8.5 GB33 GB
27B22GB64GB
32B26 GB76 GB
40B30GB96GB
70B41 GB164 GB
81B48GB192GB
90B53GB212GB
405B237 GB950 GB

4. 安装 Unsloth


# 初始化一个名为 demo-unsloth 的项目,并指定 Python 版本为 3.11.9uv init demo-unsloth -p 3.11.9# 进入项目目录cd demo-unsloth# 创建虚拟环境uv venv# 激活虚拟环境(Windows 下).venv\Scripts\activate# 安装 triton-windows,要求版本3.3.1.post19uv pip install triton-windows==3.3.1.post19# 安装支持 CUDA 12.6 的 PyTorch 及其相关库uv pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

安装unsloth

uv pip install unsloth

5. 选择模型


Unsloth 支持非常多的预训练模型,包括 Llama、DeepSeek、TTS、Qwen、Mistral 和 Gemma 系列 LLM 3。

在选择模型时,需要注意模型名称的后缀。以unsloth-bnb-4bit结尾的模型表示它们是 Unsloth 动态 4 位量化模型,与标准bnb-4bit模型相比,这些模型在略微增加 VRAM 使用的情况下提供了更高的精度。

https://docs.unsloth.ai/get-started/all-our-models

我的显卡是RTX 2050显卡,4GB显存,我选一个比较小的版本 unsloth/Qwen2.5-1.5B-Instruct-bnb-4bit

下载模型:

huggingface-cli download --resume-download unsloth/Qwen2.5-1.5B-Instruct-bnb-4bit --local-dir ./ckpts/qwen2.5-1.5b-instruct-bnb-4bit

6. 数据集准备


数据集的质量和格式直接决定了模型微调的效果。

一个高质量的数据集不仅需要覆盖目标任务的核心内容,还应保证问答对的准确性、完整性和多样性。

此外,数据集的规模也会影响模型的泛化能力,数据量越大、覆盖面越广,模型在实际应用中的表现通常会更好。

因此,在微调前应充分清洗、标注和检查数据,确保其能够有效支撑下游任务的训练需求。

因为要要训练一个老中医,所以找了一本《伤寒论》,通过工具把他拆成问答对,格式如下

[ { "Question": "伤寒一日,巨阳受之会出现什么症状?", "Response": "伤寒一日,巨阳受之会出现头项痛、腰脊强的症状。因为巨阳者,诸阳之属也,其脉连于风府,为诸阳主气,所以先受邪。 " }, { "Question": "三阴受病,厥阴受之会出现什么症状", "Response": "三阴受病,若厥阴受之,厥阴脉循阴器而络于肝,会出现烦满而囊缩的症状。 若伤寒循常无变,十二日厥阴病衰,会出现囊纵、少腹微下的情况。 " },]

7. 开始微调


7.1 引入依赖

# 导入必要的库from unsloth import FastLanguageModel, is_bfloat16_supportedfrom transformers import TrainingArguments, EarlyStoppingCallbackfrom trl import SFTTrainerfrom datasets import load_dataset# 模型配置参数max_seq_length = 2048 # 模型处理文本的最大序列长度,支持长文本输入

7.2 加载模型

# 加载预训练模型和分词器model, tokenizer = FastLanguageModel.from_pretrained( model_name="ckpts/qwen2.5-1.5b-instruct-bnb-4bit", max_seq_length=max_seq_length, dtype=None, # 自动检测最佳数据类型(bfloat16或float16) load_in_4bit=True, # 使用4bit量化加载模型,大幅减少显存占用)

7.3 加载数据集

大型语言模型需要以特定的“提示风格”或“聊天模板”来接收输入,以便它们能够正确理解任务、指令、输入和预期响应之间的关系。

例如,一个常用的提示风格是:

“请先阅读下方的任务指令,再结合提供的上下文信息,生成恰当的回复。### 指令:{} ### 上下文:{} ### 回复:{}”

有效的微调需要仔细关注输入格式,因为它直接影响模型学习的内容和响应方式

下面代码中加载我们的《伤寒论》数据集(data/datasets-2025-08.json),并使用formatting_data函数将其转换为 Unsloth 所需的格式,此函数会结合输入和输出,按照prompt_style进行格式化,并添加EOS_TOKEN(End-of-Sentence Token),EOS_TOKEN对于避免模型生成重复内容至关重要。

# 定义训练数据格式化模板# 使用中医专家角色设定,专门针对《伤寒论》问答任务train_prompt_style = """你是一位精通中医理论的专家,特别擅长《伤寒论》的理论和实践应用。请根据《伤寒论》的经典理论,准确回答以下问题。### 问题:{}### 回答:{}"""# 加载训练数据集# 从JSON文件加载伤寒论问答数据集,包含问题和回答对dataset = load_dataset("json", data_files="data/datasets-2025-08.json", split="train") def formatting_data(examples): """格式化数据集函数,将问答对转换为训练格式 将原始的问题和回答对格式化为模型训练所需的文本格式, 添加角色设定和结构化模板。 Args: examples: 包含Question、Response字段的数据样本字典 Returns: dict: 包含格式化后文本的字典,键为"text" """ questions = examples["Question"] responses = examples["Response"] texts = [] for q, r in zip(questions, responses): # 使用模板格式化每个问答对,并添加结束标记 text = train_prompt_style.format(q, r) + tokenizer.eos_token texts.append(text) # print(f"数据集: {texts}") return {"text": texts}# 应用数据格式化函数dataset = dataset.map(formatting_data, batched=True, num_proc=1)# 数据集分割:80%用于训练,20%用于验证# 使用固定随机种子确保结果可复现train_test_split = dataset.train_test_split(test_size=0.2, seed=3407)train_dataset = train_test_split['train']eval_dataset = train_test_split['test']print(f"数据集加载完成 - 训练集: {len(train_dataset)} 条, 验证集: {len(eval_dataset)} 条")

7.4 定义 LoRA

# 添加LoRA(Low-Rank Adaptation)权重配置# LoRA是一种高效的微调方法,只训练少量参数即可适应新任务model = FastLanguageModel.get_peft_model( model, r=32, # LoRA矩阵的秩,值越大表达能力越强,但参数量也越多 target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj", ], lora_alpha=64, # LoRA缩放参数 lora_dropout=0.1, # LoRA dropout率,防止过拟合,值越小正则化越弱 bias="none", # 偏置项处理方式,"none"表示不训练偏置,节省参数 use_gradient_checkpointing="unsloth", # 使用Unsloth优化的梯度检查点,支持超长序列 random_state=3407, # 随机种子,确保结果可复现 use_rslora=False, # 是否使用Rank Stabilized LoRA,当前使用标准LoRA loftq_config=None, # LoftQ配置,用于更精确的量化)

7.5 使用SFTTrainer进行训练

# 创建SFT(Supervised Fine-Tuning)训练器# 使用监督学习方式微调模型,适用于问答任务trainer = SFTTrainer( model=model, tokenizer=tokenizer, train_dataset=train_dataset, # 训练数据集 eval_dataset=eval_dataset, # 验证数据集,用于评估模型性能 dataset_text_field="text", # 数据集中文本字段的名称 max_seq_length=max_seq_length, # 最大序列长度 dataset_num_proc=1, # 数据处理进程数,设为1避免缓存冲突 packing=False, # 是否使用序列打包,短序列时可设为True提升5倍训练速度 callbacks=[ EarlyStoppingCallback(early_stopping_patience=3, early_stopping_threshold=0.0005), # 早停机制,防止过拟合 ], args=TrainingArguments( # 批次大小配置 per_device_train_batch_size=2, # 每个GPU的训练批次大小 per_device_eval_batch_size=2, # 每个GPU的验证批次大小 # 梯度累积配置 gradient_accumulation_steps=8, # 梯度累积步数,有效批次大小 = batch_size * gradient_accumulation_steps # 学习率配置 warmup_ratio=0.15, # 学习率预热比例,前15%的步数用于预热 learning_rate=2e-5, # 学习率,控制参数更新步长 # 训练轮数和步数配置 # max_steps = 200, # 最大训练步数(可选) num_train_epochs=5, # 训练轮数,给模型充分学习机会 # 精度配置 fp16=not is_bfloat16_supported(), # 是否使用16位浮点精度训练 bf16=is_bfloat16_supported(), # 是否使用bfloat16精度训练(更稳定) # 日志和监控配置 logging_steps=2, # 每2步记录一次日志 eval_steps=10, # 每10步进行一次验证评估 eval_strategy="steps", # 按步数进行验证 # 模型保存配置 save_steps=20, # 每20步保存一次模型检查点 save_strategy="steps", # 按步数保存模型 save_total_limit=5, # 最多保存5个检查点,节省存储空间 # 最佳模型配置 load_best_model_at_end=True, # 训练结束时自动加载最佳模型 metric_for_best_model="eval_loss", # 使用验证损失作为最佳模型指标 greater_is_better=False, # 损失越小越好 # 正则化配置 weight_decay=0.001, # 权重衰减,防止过拟合 max_grad_norm=1.0, # 梯度裁剪阈值,防止梯度爆炸 # 学习率调度配置 lr_scheduler_type="cosine", # 使用余弦退火学习率调度器 # 优化器配置 optim="adamw_8bit", # 使用8位AdamW优化器,节省显存 # 数据加载配置 dataloader_num_workers=0, # 数据加载器工作进程数,设为0避免多进程冲突 # 输出配置 output_dir="outputs", # 模型输出和检查点保存目录 # 随机种子 seed=3407, # 随机种子,确保结果可复现 ),)# 开始训练train_stats = trainer.train()print(f"训练完成,训练损失: \n {train_stats}")

7.6 模型保存

Unsloth 提供了多种保存微调后模型的方法,每种方法都有其特定的用途:

save_pretrained

此方法仅保存 LoRA 适配器权重。这些文件通常很小,只包含模型修改部分,包括adapter_config.jsonadapter_model.safetensors。这种方法适用于需要灵活切换不同 LoRA 适配器或节省存储空间的情况。

save_pretrained_gguf

这是一种新的优化格式(GGUF),支持更好的元数据处理。文件同样较小且经过量化,包括model.gguftokenizer.json。Unsloth 的动态量化在 GGUF 导出中通过智能的层特定量化策略,进一步增强了模型性能和效率。

# 保存微调后的模型权重# 只保存LoRA权重,原始模型权重保持不变model.save_pretrained("ckpts/qwen2.5-1.5b-instruct-bnb-4bit-lora")# 保存分词器(tokenizer),以便后续加载和推理时使用tokenizer.save_pretrained("ckpts/qwen2.5-1.5b-instruct-bnb-4bit-lora")#==================================================================================# model.save_pretrained_gguf("ckpts/qwen2.5-1.5b-instruct-bnb-4bit-gguf", tokenizer, quantization_method="q4_k_m")

7.7 训练过程

开始时显示基础信息:

==((====))== Unsloth 2025.7.8: Fast Qwen3 patching. Transformers: 4.53.3. \\ /| NVIDIA GeForce RTX 2050. Num GPUs = 1. Max memory: 4.0 GB. Platform: Windows.O^O/ \_/ \ Torch: 2.7.1+cu126. CUDA: 8.6. CUDA Toolkit: 12.6. Triton: 3.3.1\ / Bfloat16 = TRUE. FA [Xformers = 0.0.31.post1. FA2 = False] "-____-" Free license: http://github.com/unslothai/unsloth# 批注:系统配置信息# - 使用RTX 2050显卡,4GB显存# - 支持bfloat16精度训练# - 使用Xformers优化注意力机制

再给出微调的配置:

==((====))== Unsloth - 2x faster free finetuning | Num GPUs used = 1 \\ /| Num examples = 353 | Num Epochs = 5 | Total steps = 115O^O/ \_/ \ Batch size per device = 2 | Gradient accumulation steps = 8\ / Data Parallel GPUs = 1 | Total batch size (2 x 8 x 1) = 16 "-____-" Trainable parameters = 20,185,088 of 616,235,008 (3.28% trained)# 批注:训练配置详情# - 总样本数:353个# - 训练轮数:5轮# - 总步数:115步# - 有效批次大小:16(2×8×1)# - 可训练参数:3.28%(20M/616M)

后面是微调细节:

{'loss': 2.1017, 'grad_norm': 3.180413007736206, 'learning_rate': 1.995283421166614e-05, 'epoch': 1.05}{'loss': 2.2702, 'grad_norm': 2.8307971954345703, 'learning_rate': 1.9869167087338908e-05, 'epoch': 1.14}{'loss': 2.0511, 'grad_norm': 3.1757583618164062, 'learning_rate': 1.9744105246469264e-05, 'epoch': 1.23}{'loss': 2.1853, 'grad_norm': 2.5234906673431396, 'learning_rate': 1.957817324187987e-05, 'epoch': 1.32}{'loss': 1.8145, 'grad_norm': 2.9424679279327393, 'learning_rate': 1.937206705006344e-05, 'epoch': 1.32}

8. 测试微调的模型


模型测试代码如下:

from unsloth import FastLanguageModelfrom unsloth.chat_templates import get_chat_templatefrom transformers import TextStreamerimport torchmax_seq_length = 512model, tokenizer = FastLanguageModel.from_pretrained( model_name="ckpts/qwen2.5-1.5b-instruct-bnb-4bit-lora", max_seq_length=max_seq_length, dtype=None, load_in_4bit=True,)# 启用unsloth的2x更快推理优化print("启用推理优化...")FastLanguageModel.for_inference(model)print("模型加载完成")# 定义训练数据格式化字符串模板train_prompt_style = """你是一位精通中医理论的专家,特别擅长《伤寒论》的理论和实践应用。请根据《伤寒论》的经典理论,准确回答以下问题。### 问题:{}"""question = '什么是太阳病?'formatted_prompt = train_prompt_style.format(question)print(f"格式化后的提示文本:\n-------------------\n{formatted_prompt}\n-------------------")print(type(tokenizer)) # <class 'transformers.models.qwen2.tokenization_qwen2_fast.Qwen2TokenizerFast'>inputs = tokenizer([formatted_prompt], return_tensors='pt', max_length=max_seq_length).to("cuda")print(f"inputs: \n-------------------\n{inputs}\n-------------------")# 生成回答(流式输出)with torch.no_grad(): outputs = model.generate( # 输入序列的token ID inputs['input_ids'], # 注意力掩码,指示哪些位置是有效输入 attention_mask=inputs['attention_mask'], # 生成文本的最大长度限制 max_length=max_seq_length, # 启用KV缓存,加速生成过程 use_cache=True, # 温度参数,控制生成的随机性 # 值越低生成越确定,值越高生成越随机 temperature=0.8, # 核采样参数,只从累积概率达到90%的词中选择 # 避免选择概率极低的词,提高生成质量 top_p=0.9, # 启用采样模式,而不是贪婪解码 # 贪婪解码总是选择概率最高的词,容易产生重复 do_sample=True, # 设置填充标记ID,用于处理变长序列 pad_token_id=tokenizer.eos_token_id, # 设置结束标记ID,告诉模型何时停止生成 eos_token_id=tokenizer.eos_token_id, # 重复惩罚参数,防止模型重复生成相同内容 # 1.1表示重复词的生成概率降低10% repetition_penalty=1.1 )print(type(outputs))print(outputs)answer = tokenizer.decode(outputs[0], skip_special_tokens=True)print("\n" + "=" * 80)print(answer)print("\n" + "=" * 80)print("测试完成!")

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】


四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/1/15 10:29:42

别再找了,这个免费的LLM课程就是你的终极学习路线图

在GitHub上发现一个近乎完美的免费大语言模型课程&#xff0c;包含科学家和工程师双路径的详细学习路线&#xff0c;附带实战Notebook、论文资源和初学者所需的一切。 基础数学/Python/神经网络&#xff08;可选&#xff09;科学家路径&#xff1a;深入讲解模型训练的每个环节&…

作者头像 李华
网站建设 2025/12/25 3:55:37

服务器卡死排查流程

以下是 Linux 物理机/云服务器系统卡死的标准化排查流程&#xff08;兼顾命令行/桌面环境、Docker/服务部署场景&#xff09;&#xff0c;按「紧急恢复→日志溯源→资源排查→深度定位→预防优化」五步执行&#xff0c;直接复制命令即可操作&#xff0c;覆盖 90% 常见卡死场景&…

作者头像 李华
网站建设 2026/1/14 19:53:49

2026毕设ssm+vue基于科研项目申报管理系统论文+程序

本系统&#xff08;程序源码&#xff09;带文档lw万字以上 文末可获取一份本项目的java源码和数据库参考。系统程序文件列表开题报告内容一、选题背景 关于动漫内容管理与传播问题的研究&#xff0c;现有研究主要以“短视频平台推荐算法”“二次元社区用户行为”为主&#xff0…

作者头像 李华
网站建设 2026/1/12 7:20:50

UnoCSS 集成指南 - 小程序适配原理

文章目录前言UnoCSS 集成指南 - 小程序适配原理问题背景核心问题&#xff1a;小程序与 Web 的架构差异1. 样式隔离机制不同2. UnoCSS 默认工作模式解决方案原理1. 使用 per-module 模式2. 插件顺序&#xff1a;uni() 必须在前3. presetUni() 预设a. 单位转换b. 样式兼容性处理c…

作者头像 李华
网站建设 2025/12/25 16:45:31

8、初始分类与实时响应:数据分析

初始分类与实时响应:数据分析 1. 引言 在收集了目标系统的所有易失性信息并将其关机后,如何将这些看似无关的数据转化为有意义的信息,以帮助我们弄清楚发生了什么呢?不同的案例需要从易失性数据中获取的信息会有所不同,但解析这些信息的方法应该保持一致。每个人分析信息…

作者头像 李华
网站建设 2025/12/25 22:22:12

5步构建FlutterFire Remote Config智能用户细分系统

5步构建FlutterFire Remote Config智能用户细分系统 【免费下载链接】flutterfire firebase/flutterfire: FlutterFire是一系列Firebase官方提供的Flutter插件集合&#xff0c;用于在Flutter应用程序中集成Firebase的服务&#xff0c;包括身份验证、数据库、存储、消息推送等功…

作者头像 李华