news 2026/3/30 15:55:09

【小白笔记】梯度下降(Gradient Descent)来训练模型

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【小白笔记】梯度下降(Gradient Descent)来训练模型

importnumpyasnp# 读取训练样本数 kk=int(input())# 读取训练数据:共 k*4 个整数(每样本 3 特征 + 1 标签)data=list(map(int,input().split()))# 读取预测样本数 nn=int(input())# 读取待预测数据:共 n*3 个整数(每样本 3 特征)pred_data=list(map(int,input().split()))# 构建训练集 x (特征) 和 y (标签)x=[]y=[]foriinrange(k):start=i*4feature=data[start:start+3]# 前3个是特征price=data[start+3]# 第4个是价格(标签)x.append(feature)y.append(price)x=np.array(x,dtype=float)# 转为浮点型(梯度下降需要)x=np.c_[np.ones(x.shape[0]),x]# 添加偏置列(全1)y=np.array(y,dtype=float)# ========== 梯度下降替代正规方程 ==========m,p=x.shape# m: 样本数, p: 特征数(含偏置)theta=np.zeros(p)# 初始化参数 theta 为 0learning_rate=0.01# 学习率(可调)num_iterations=10000# 迭代次数(可调)# 梯度下降主循环for_inrange(num_iterations):# 计算预测值y_pred=x @ theta# 计算梯度:(1/m) * X^T (Xθ - y)gradient=(1/m)*x.T @(y_pred-y)# 更新参数theta=theta-learning_rate*gradient# ========== 预测部分(保持不变)==========x_pred=[]foriinrange(n):start=i*3feature=pred_data[start:start+3]x_pred.append(feature)x_pred=np.array(x_pred,dtype=float)x_pred=np.c_[np.ones(x_pred.shape[0]),x_pred]# 添加偏置列# 使用学到的 theta 进行预测y_pred=x_pred @ theta y_pred_rounded=[round(i)foriiny_pred]# 输出结果(拼接成字符串)print(''.join(map(str,y_pred_rounded)))

🔧 关键改动说明

原代码(正规方程)新代码(梯度下降)
theta = np.linalg.inv(x.T@x)@x.T@yfor循环迭代更新theta
不需要设置超参数需要设置learning_ratenum_iterations
一步求解多次迭代逼近最优解

⚙️ 超参数建议(可根据数据调整)

  • learning_rate
    • 如果 loss 震荡或发散 → 减小(如0.001
    • 如果收敛太慢 → 增大(如0.1
  • num_iterations
    • 一般1000~10000足够;也可加早停机制(当 loss 变化很小时停止)

💡提示:如果特征尺度差异大(比如一个特征是“面积=100”,另一个是“房间数=3”),建议先做特征标准化(如(x - mean)/std),否则梯度下降会很慢。但本题输入是整数且未说明范围,暂时省略。


✅ 示例输入/输出(验证用)

输入

2 1 2 3 10 4 5 6 30 1 7 8 9
  • 训练样本1: [1,2,3] → 10
  • 训练样本2: [4,5,6] → 30
  • 预测样本: [7,8,9] → ?

输出(近似):

50

(因为模型学到大致是y ≈ x1 + x2 + x3,7+8+9=24?但实际拟合可能不同;若用正规方程得精确解,梯度下降应接近)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/28 8:24:43

标题:MiMo-V2-Flash杀疯了:150 tokens/s,小米开源AI王炸

就在刚刚,小米大模型Core团队直接甩出王炸。MiMo-V2-Flash,一个名字里写着"快"的开源模型,却在性能上叫板了当前最强的几个对手。 当速度遇上性能,会发生什么? 在AI圈,一直有个"鱼和熊掌&qu…

作者头像 李华
网站建设 2026/3/27 2:32:17

Lemonade:本地大语言模型服务的终极指南

在当今人工智能快速发展的时代,本地部署大语言模型已成为开发者和研究者的重要需求。Lemonade项目正是为此而生,它提供了一个功能强大的本地LLM服务器,特别支持NPU硬件加速,让您在个人电脑上就能高效运行各种语言模型。 【免费下载…

作者头像 李华
网站建设 2026/3/30 10:29:36

思维链技术:让AI推理过程从黑箱变透明的革命性突破

思维链技术:让AI推理过程从黑箱变透明的革命性突破 【免费下载链接】fabric fabric 是个很实用的框架。它包含多种功能,像内容总结,能把长文提炼成简洁的 Markdown 格式;还有分析辩论、识别工作故事、解释数学概念等。源项目地址&…

作者头像 李华
网站建设 2026/3/19 8:04:59

告别等待!3步调优Monaco Editor代码提示响应速度

告别等待!3步调优Monaco Editor代码提示响应速度 【免费下载链接】monaco-editor A browser based code editor 项目地址: https://gitcode.com/gh_mirrors/mo/monaco-editor 还在为输入代码时提示框迟迟不出现而烦恼吗?🤔 今天我们就…

作者头像 李华
网站建设 2026/3/27 6:38:04

优秀学员统计 100分(python、java、c++、js、c)

题目 公司某部门软件教导团正在组织新员工每日打卡学习活动,他们开展这项学习活动已经一个月了,所以想统计下这个月优秀的打卡员工。每个员工会对应一个id,每天的打卡记录记录当天打卡员工的id集合,一共30天。请你实现代码帮助统计…

作者头像 李华
网站建设 2026/3/26 13:24:09

两数之和 暴力解法

在 LeetCode 的入门题目中,“两数之和”(Two Sum)绝对是绕不开的经典。这道题看似简单,却能帮我们夯实数组遍历、条件判断等基础编程能力。今天就来聊聊这道题的暴力解法思路,以及完整的 C 实现。题目回顾给定一个整数…

作者头像 李华