5.4 模型评估与优化:科学评估微调效果
导语:在上一章的“炼丹”实战中,我们成功地微调出了一个“AI 皮肤科医生”模型,并通过几个简单的对话,直观地感受到了它的变化。但这种“感觉”是主观的、不可靠的。要将“炼丹”从一门“玄学”变为一门“科学”,我们必须引入客观、量化的评估。我怎么向我的老板或投资人证明,我花费了 GPU 和时间微调出来的模型,真的比原来的基础模型要好?好多少?好在哪里?本章,我们将重拾第四周学习的评估理论和工具,为我们亲手微调的模型,组织一场严格、公正的“大考”,用数据来科学地度量微调的真正效果。
目录
- “感觉良好”还不够:为什么必须评估微调模型?
- 避免“自嗨”:验证优化的真实性
- 量化提升:用数据说话,证明 ROI (投资回报率)
- 发现“副作用”:微调是否在提升专业性的同时,损害了模型的通用能力?
- 评估的基石:“训练集” vs. “测试集”
- “开卷”与“闭卷”:绝对不能用训练集来评估模型!
- 留出测试集 (Hold-out Set):在构建数据集时,预留一部分(如 10-20%)专门用于最终评估的数据。
- 构建
medical-test-set:从我们生成的数据中,划分