news 2026/2/25 7:20:45

机器学习-逻辑回归

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
机器学习-逻辑回归

逻辑回归简介

学习目标:

1.知道逻辑回归的应用场景

2.复习逻辑回归应用到的数学知识

【了解】应用场景

逻辑回归是解决二分类问题的利器

【熟悉】数学知识

【知道】sigmoid函数

【理解】概率

【理解】极大似然估计

核心思想:

设模型中含有待估参数w,可以取很多值。已经知道了样本观测值,从w的一切可能值中(选出一个使该观察值出现的概率为最大的值,作为w参数的估计值,这就是极大似然估计。(顾名思义:就是看上去那个是最大可能的意思)

举个例子:

假设有一枚不均匀的硬币,出现正面的概率和反面的概率是不同的。假定出现正面的概率为𝜃, 抛了6次得到如下现象 D = {正面,反面,反面,正面,正面,正面}。每次投掷事件都是相互独立的。 则根据产生的现象D,来估计参数𝜃是多少?

P(D|𝜃) = P {正面,反面,反面,正面,正面,正面} = P(正面|𝜃) P(正面|𝜃) P(正面|𝜃) P(正面|𝜃) P(正面|𝜃) P(正面|𝜃) =𝜃 *(1-𝜃)*(1-𝜃)𝜃*𝜃*𝜃 = 𝜃4(1 − 𝜃)

问题转化为:求此函数的极大值时,估计𝜃为多少

【知道】对数函数

逻辑回归原理

学习目标
1.理解逻辑回归算法的原理

2.知道逻辑回归的损失函数

【理解】原理

逻辑回归概念 Logistic Regression

• 一种分类模型,把线性回归的输出,作为逻辑回归的输入。

• 输出是(0, 1)之间的值

• 基本思想

  1. 利用线性模型 f(x) = wx + b 根据特征的重要性计算出一个值
  2. 再使用 sigmoid 函数将 f(x) 的输出值映射为概率值
    1. 设置阈值(eg:0.5),输出概率值大于 0.5,则将未知样本输出为 1 类
    2. 否则输出为 0 类

3.逻辑回归的假设函数
h(w) = sigmoid(wx + b )

线性回归的输出,作为逻辑回归的输入

在逻辑回归中,当预测结果不对的时候,我们该怎么衡量其损失呢?

我们来看下图(下图中,设置阈值为0.6),

那么如何去衡量逻辑回归的预测结果与真实结果的差异?

【知道】损失函数

逻辑回归API

学习目标:

1.知道逻辑回归的API

2.动手实现癌症分类案例

【知道】API介绍

sklearn.linear_model.LogisticRegression(solver='liblinear',penalty=‘l2’,C=1.0)

solver损失函数优化方法:

训练速度:liblinear 对小数据集场景训练速度更快,sag 和 saga 对大数据集更快一些。 2 正则化:

  1. newton-cg、lbfgs、sag、saga 支持 L2 正则化或者没有正则化
  2. 2liblinear 和 saga 支持 L1 正则化

penalty:正则化的种类,l1 或者 l2

C:正则化力度

默认将类别数量少的当做正例

【实践】癌症分类案例

  • 数据介绍

(1)699条样本,共11列数据,第一列用语检索的id,后9列分别是与肿瘤相关的医学特征,

​ 最后一列表示肿瘤类型的数值。

(2)包含16个缺失值,用”?”标出。

(3)2表示良性,4表示恶性

数据描述

(1)699条样本,共11列数据,第一列用语检索的id,后9列分别是与肿瘤

相关的医学特征,最后一列表示肿瘤类型的数值。

(2)包含16个缺失值,用”?”标出。

  • 案例分析
1.获取数据 2.基本数据处理 2.1 缺失值处理 2.2 确定特征值,目标值 2.3 分割数据 3.特征工程(标准化) 4.机器学习(逻辑回归) 5.模型评估
  • 代码实现
importpandasaspdimportnumpyasnpfromsklearn.linear_modelimportLogisticRegressionfromsklearn.metricsimportaccuracy_scorefromsklearn.model_selectionimporttrain_test_splitfromsklearn.preprocessingimportStandardScalerdefdm01_LogisticRegression():# 1. 获取数据.data=pd.read_csv('data/breast-cancer-wisconsin.csv')data.info()# 2. 数据预处理.# data = data.replace(to_replace='?', value=np.NAN)data=data.replace('?',np.NaN)data=data.dropna()data.info()# 3. 确定特征值和目标值.x=data.iloc[:,1:-1]y=data.Classprint(f'x.head():{x.head()}')print(f'y.head():{y.head()}')# 3. 分割数据.x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=21)# 4. 特征处理.transfer=StandardScaler()x_train=transfer.fit_transform(x_train)x_test=transfer.transform(x_test)# 5. 模型训练.estimator=LogisticRegression()estimator.fit(x_train,y_train)# 6. 模型预测y_predict=estimator.predict(x_test)print(f'预测值:{y_predict}')# 7. 模型评估print(f'准确率:{estimator.score(x_test,y_test)}')print(f'准确率:{accuracy_score(y_test,y_predict)}')if__name__=='__main__':dm01_LogisticRegression()

分类评估方法

学习目标:

1.理解混淆矩阵的构建方法

2.掌握精确率,召回率和F1score的计算方法

3.知道ROC曲线和AUC指标

【理解】混淆矩阵

混淆矩阵作用在测试集样本集中:

  1. 真实值是正例的样本中,被分类为正例的样本数量有多少,这部分样本叫做真正例(TP,True Positive)
  2. 真实值是正例的样本中,被分类为假例的样本数量有多少,这部分样本叫做伪反例(FN,False Negative)
  3. 真实值是假例的样本中,被分类为正例的样本数量有多少,这部分样本叫做伪正例(FP,False Positive)
  4. 真实值是假例的样本中,被分类为假例的样本数量有多少,这部分样本叫做真反例(TN,True Negative)

True Positive :表示样本真实的类别
Positive :表示样本被预测为的类别

例子:

样本集中有 6 个恶性肿瘤样本,4 个良性肿瘤样本,我们假设恶性肿瘤为正例,则:

模型 A:预测对了 3 个恶性肿瘤样本,4 个良性肿瘤样本

  1. 真正例 TP 为:3
  2. 伪反例 FN 为:3
  3. 伪正例 FP 为:0
  4. 真反例 TN:4

模型 B:预测对了 6 个恶性肿瘤样本,1个良性肿瘤样本

  1. 真正例 TP 为:6
  2. 伪反例 FN 为:0
  3. 伪正例 FP 为:3
  4. 真反例 TN:1

我们会发现:TP+FN+FP+TN = 总样本数量

fromsklearn.metricsimportconfusion_matrix,precision_score,recall_score,f1_scoreimportpandasaspddefdm01_混淆矩阵四个指标():# 1. 定义样本集, 6个恶性肿瘤样本, 4个良性肿瘤样本y_true=['恶性','恶性','恶性','恶性','恶性','恶性','良性','良性','良性','良性']# 2. 定义标签labels=['恶性','良性']# 3. 模型A => 预测对了 3个恶性, 4个良性.y_pred_A=['恶性','恶性','恶性','良性','良性','良性','良性','良性','良性','良性']result=confusion_matrix(y_true,y_pred_A)print(pd.DataFrame(result,index=labels,columns=labels))# 4. 模型B => 预测对了6个恶性肿瘤样本, 1个良性肿瘤样本.y_pred_B=['恶性','恶性','恶性','恶性','恶性','恶性','恶性','恶性','恶性','良性']result=confusion_matrix(y_true,y_pred_B)print(pd.DataFrame(result,index=labels,columns=labels))# 5. 计算精确率 (precision)print(f'模型A精确率:{precision_score(y_true,y_pred_A,pos_label="恶性")}')print(f'模型B精确率:{precision_score(y_true,y_pred_B,pos_label="恶性")}')# 6. 计算召回率 (recall)print(f'模型A召回率:{recall_score(y_true,y_pred_A,pos_label="恶性")}')print(f'模型B召回率:{recall_score(y_true,y_pred_B,pos_label="恶性")}')# 7. 计算F1值print(f'模型A F1值:{f1_score(y_true,y_pred_A,pos_label="恶性")}')print(f'模型B F1值:{f1_score(y_true,y_pred_B,pos_label="恶性")}')if__name__=='__main__':dm01_混淆矩阵四个指标()

【掌握】Precision(精确率)

精确率也叫做查准率,指的是对正例样本的预测准确率。比如:我们把恶性肿瘤当做正例样本,则我们就需要知道模型对恶性肿瘤的预测准确率。

例子:

样本集中有 6 个恶性肿瘤样本,4 个良性肿瘤样本,我们假设恶性肿瘤为正例,则:

模型 A:预测对了 3 个恶性肿瘤样本,4 个良性肿瘤样本

  1. 真正例 TP 为:3
  2. 伪反例 FN 为:3
  3. 假正例 FP 为:0
  4. 真反例 TN:4
  5. 精准率:3/(3+0) = 100%

模型 B:预测对了 6 个恶性肿瘤样本,1个良性肿瘤样本

  1. 真正例 TP 为:6
  2. 伪反例 FN 为:0
  3. 假正例 FP 为:3
  4. 真反例 TN:1
  5. 精准率:6/(6+3) = 67%

【掌握】Recall(召回率)

召回率也叫做查全率,指的是预测为真正例样本占所有真实正例样本的比重。例如:我们把恶性肿瘤当做正例样本,则我们想知道模型是否能把所有的恶性肿瘤患者都预测出来。

例子:

样本集中有 6 个恶性肿瘤样本,4 个良性肿瘤样本,我们假设恶性肿瘤为正例,则:

模型 A:预测对了 3 个恶性肿瘤样本,4 个良性肿瘤样本

  1. 真正例 TP 为:3
  2. 伪反例 FN 为:3
  3. 假正例 FP 为:0
  4. 真反例 TN:4
  5. 精准率:3/(3+0) = 100%
  6. 召回率:3/(3+3)=50%

模型 B:预测对了 6 个恶性肿瘤样本,1个良性肿瘤样本

  1. 真正例 TP 为:6
  2. 伪反例 FN 为:0
  3. 假正例 FP 为:3
  4. 真反例 TN:1
  5. 精准率:6/(6+3) = 67%
  6. 召回率:6/(6+0)= 100%

【掌握】F1-score

如果我们对模型的精度、召回率都有要求,希望知道模型在这两个评估方向的综合预测能力如何?则可以使用 F1-score 指标。

样本集中有 6 个恶性肿瘤样本,4 个良性肿瘤样本,我们假设恶性肿瘤为正例,则:

模型 A:预测对了 3 个恶性肿瘤样本,4 个良性肿瘤样本

  1. 真正例 TP 为:3
  2. 伪反例 FN 为:3
  3. 假正例 FP 为:0
  4. 真反例 TN:4
  5. 精准率:3/(3+0) = 100%
  6. 召回率:3/(3+3)=50%
  7. F1-score:(2*3)/(2*3+3+0)=67%

模型 B:预测对了 6 个恶性肿瘤样本,1个良性肿瘤样本

  1. 真正例 TP 为:6
  2. 伪反例 FN 为:0
  3. 假正例 FP 为:3
  4. 真反例 TN:1
  5. 精准率:6/(6+3) = 67%
  6. 召回率:6/(6+0)= 100%
  7. F1-score:(2*6)/(2*6+0+3)=80%

【知道】ROC曲线和AUC指标

ROC 曲线

ROC 曲线:我们分别考虑正负样本的情况:

  1. 正样本中被预测为正样本的概率,即:TPR (True Positive Rate)
  2. 负样本中被预测为正样本的概率,即:FPR (False Positive Rate)

ROC 曲线图像中,4 个特殊点的含义:

  1. (0, 0) 表示所有的正样本都预测为错误,所有的负样本都预测正确
  2. (1, 0) 表示所有的正样本都预测错误,所有的负样本都预测错误
  3. (1, 1) 表示所有的正样本都预测正确,所有的负样本都预测错误
  4. (0, 1) 表示所有的正样本都预测正确,所有的负样本都预测正确
绘制 ROC 曲线

假设:在网页某个位置有一个广告图片或者文字,该广告共被展示了 6 次,有 2 次被浏览者点击了。每次点击的概率如下:

样本是否被点击预测点击概率
110.9
200.7
310.8
400.6
500.5
600.4

根据预测点击概率排序之后:

样本是否被点击预测点击概率
110.9
310.8
200.7
400.6
500.5
600.4

绘制 ROC 曲线:

阈值:0.9

  1. 原本为正例的 1、3 号的样本中 3 号样本被分类错误,则 TPR = 1/2 = 0.5
  2. 原本为负例的 2、4、5、6 号样本没有一个被分为正例,则 FPR = 0

阈值:0.8

  1. 原本为正例的 1、3 号样本被分类正确,则 TPR = 2/2 = 1
  2. 原本为负例的 2、4、5、6 号样本没有一个被分为正例,则 FPR = 0

阈值:0.7

  1. 原本为正例的 1、3 号样本被分类正确,则 TPR = 2/2 = 1
  2. 原本为负类的 2、4、5、6 号样本中 2 号样本被分类错误,则 FPR = 1/4 = 0.25

阈值:0.6

  1. 原本为正例的 1、3 号样本被分类正确,则 TPR = 2/2 = 1
  2. 原本为负类的 2、4、5、6 号样本中 2、4 号样本被分类错误,则 FPR = 2/4 = 0.5

阈值:0.5

  1. 原本为正例的 1、3 号样本被分类正确,则 TPR = 2/2 = 1
  2. 原本为负类的 2、4、5、6 号样本中 2、4、5 号样本被分类错误,则 FPR = 3/4 = 0.75

阈值 0.4

  1. 原本为正例的 1、3 号样本被分类正确,则 TPR = 2/2 = 1
  2. 原本为负类的 2、4、5、6 号样本全部被分类错误,则 FPR = 4/4 = 1

(0, 0.5)、(0, 1)、(0.25, 1)、(0.5, 1)、(0.75, 1)、(1, 1)

由 TPR 和 FPR 构成的 ROC 图像为:

AUC 值
  1. 我们发现:图像越靠近 (0,1) 点则模型对正负样本的辨别能力就越强
  2. 我们发现:图像越靠近 (0, 1) 点则 ROC 曲线下面的面积就会越大
  3. AUC 是 ROC 曲线下面的面积,该值越大,则模型的辨别能力就越强
  4. AUC 范围在 [0, 1] 之间
  5. 当 AUC= 1 时,该模型被认为是完美的分类器,但是几乎不存在完美分类器

AUC 值主要评估模型对正例样本、负例样本的辨别能力.

分类评估报告api
sklearn.metrics.classification_report(y_true,y_pred,labels=[],target_names=None)''' y_true:真实目标值 y_pred:估计器预测目标值 labels:指定类别对应的数字 target_names:目标类别名称 return:每个类别精确率与召回率 '''
AUC计算API
from sklearn.metrics import roc_auc_score sklearn.metrics.roc_auc_score(y_true, y_score) 计算ROC曲线面积,即AUC值 y_true:每个样本的真实类别,必须为0(反例),1(正例)标记 y_score:预测得分,可以是正例的估计概率、置信值或者分类器方法的返回值

【实践】电信客户流失预测

学习目标:

1.了解案例的背景信息

2.知道案例的处理流程

3.动手实现电信客户流失案例的代码

数据集介绍

  • 流失用户指的使用过产品因为某些原因不再使用该产品。随着产品的更新迭代,都会存在一定的流失情况,这时正常现象。流失用户的比例和变化趋势能够反映该产品当前是否存在问题以及未来的发展趋势。
  • 当用户群体庞大时,有限的人力和精力不能为每个用户都投入大量的时间。如果公司可以预测哪些用户可能提前流失,这样就能将主要精力聚焦于这些用户,实施有效的用户挽留策略,提高用户粘性。
  • 本项目旨在通过分析特征属性确定用户流失的原因,以及哪些因素可能导致用户流失。建立预测模型来判断用户是否流失,并提出用户流失预警策略。
  • 具体数据说明如下:数据集中总计7043条数据,21个特征字段,最终分类特征为Churn:用户是否流失,具体内容如下所示:
    customerID:用户ID
    gender:性别
    SeniorCitizen:是否是老人
    Partner:是否有伴侣
    Dependents:是否有需要抚养的孩子
    tenure:任职
    PhoneService:是否办理电话服务
    MultipleLines:是否开通了多条线路
    InternetService:是否开通网络服务和开通的服务类型(光纤、电话拨号)
    TechSupport:是否办理技术支持服务
    OnlineBackup:是否办理在线备份服务
    OnlineSecurity:是否办理在线安全服务
    DeviceProtection:是否办理设备保护服务
    StreamingTV:是否办理电视服务
    StreamingMovies:是否办理电影服务
    Contract:签订合约的时长
    PaperlessBilling:是否申请了无纸化账单
    PaymentMethod:付款方式(电子支票、邮寄支票、银行自动转账、信用卡自动转账)
    MonthlyCharges:月消费
    TotalCharges:总消费
    Churn:用户是否流失

处理流程

1、数据基本处理

查看数据的基本信息

​ 对类别数据数据进行one-hot处理

​ 查看标签分布情况

2、特征筛选

​ 分析哪些特征对标签值影响大

​ 初步筛选出对标签影响比较大的特征,形成x、y

3、模型训练

​ 模型训练

​ 交叉验证网格搜索等

4、模型评估

​ 精确率

​ Roc_AUC指标计算

案例实现

importnumpyasnpimportpandasaspdimportseabornassnsimportmatplotlib.pyplotaspltfromsklearn.model_selectionimporttrain_test_splitfromsklearn.linear_modelimportLogisticRegressionfromsklearn.metricsimportaccuracy_score,roc_auc_score# 1. 定义函数, 表示: 数据基本处理defdm01_数据基本处理():# 1. 读取数据, 查看数据的基本信息.churn_pd=pd.read_csv('data/churn.csv')# churn_pd.info()# print(f'churn_pd.describe(): {churn_pd.describe()}')# print(f'churn_pd: {churn_pd}')# 2. 处理类别型的数据, 类别型数据做 one-hot编码(热编码).churn_pd=pd.get_dummies(churn_pd)churn_pd.info()# print(f'churn_pd: {churn_pd}')# 3. 去除列 Churn_No, gender_Malechurn_pd.drop(['Churn_No','gender_Male'],axis=1,inplace=True)# 按列删除print(f'churn_pd:{churn_pd}')# 4. 列标签重命名, 打印列名churn_pd.rename(columns={'Churn_Yes':'flag'},inplace=True)print(f'列名:{churn_pd.columns}')# 5. 查看标签的分布情况 0.26用户流失value_counts=churn_pd.flag.value_counts()print(value_counts)# 2. 定义函数, 表示: 特征筛选defdm02_特征筛选():# 1. 读取数据churn_pd=pd.read_csv('data/churn.csv')# 2. 处理类别型的数据, 类别型数据做 one-hot编码(热编码).churn_pd=pd.get_dummies(churn_pd)# 3. 去除列 Churn_No, gender_Malechurn_pd.drop(['Churn_No','gender_Male'],axis=1,inplace=True)# 4. 列标签重命名churn_pd.rename(columns={'Churn_Yes':'flag'},inplace=True)# 5. 查看标签的分布情况value_counts=churn_pd.flag.value_counts()print(value_counts)# 6. 查看Contract_Month 是否预签约流失情况sns.countplot(data=churn_pd,x='Contract_Month',hue='flag')plt.show()# 3. 定义函数, 表示: 模型训练 和 评测defdm03_模型训练和评测():# 1. 读取数据churn_pd=pd.read_csv('data/churn.csv')# 2. 数据预处理# 2.1 处理类别型的数据, 类别型数据做 one-hot编码(热编码).churn_pd=pd.get_dummies(churn_pd)# 2.2 去除列 Churn_No, gender_Malechurn_pd.drop(['Churn_No','gender_Male'],axis=1,inplace=True)# 2.3 列标签重命名churn_pd.rename(columns={'Churn_Yes':'flag'},inplace=True)# 3. 特征处理.# 3.1 提取特征和标签x=churn_pd[['Contract_Month','internet_other','PaymentElectronic']]y=churn_pd['flag']# 3.2 训练集和测试集的分割x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3,random_state=21)# 4. 模型训练.estimator=LogisticRegression()estimator.fit(x_train,y_train)# 5. 模型预测y_predict=estimator.predict(x_test)print(f'预测结果:{y_predict}')# 6. 模型评估print(f'准确率:{accuracy_score(y_test,y_predict)}')print(f'准确率:{estimator.score(x_test,y_test)}')# 计算AUC值.print(f'AUC值:{roc_auc_score(y_test,y_predict)}')if__name__=='__main__':# dm01_数据基本处理()# dm02_特征筛选()dm03_模型训练和评测()

作业

  1. 使用思维导图总结逻辑回归的内容

  2. 理解分类评估方法并进行详细的描述

3.动手实现癌症分类和电信用户流失案例(数据处理,特征工程,CV。。。。)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/23 20:07:01

自动化标注也集成!lora-scripts内置auto_label.py脚本使用说明

自动化标注也集成!lora-scripts内置auto_label.py脚本使用说明 在生成式AI迅猛发展的今天,个性化模型定制已不再是研究机构的专属能力。LoRA(Low-Rank Adaptation)作为轻量微调技术的代表,正被越来越多开发者用于训练专…

作者头像 李华
网站建设 2026/2/22 13:02:12

lora-scripts与Markdown文档集成:生成可读性更强的技术报告

lora-scripts与Markdown文档集成:生成可读性更强的技术报告 在AI模型定制化需求日益增长的今天,如何让非专家用户也能高效完成大模型微调,成了一个亟待解决的问题。无论是想训练专属画风的Stable Diffusion艺术家,还是希望微调行…

作者头像 李华
网站建设 2026/2/25 3:57:36

通过网盘直链下载助手获取lora-scripts预训练模型

通过网盘直链下载助手获取lora-scripts预训练模型 在AI生成内容(AIGC)快速普及的今天,越来越多开发者希望基于大模型定制专属风格或功能——比如让Stable Diffusion画出自己设计的角色,或是训练一个懂行业术语的客服机器人。但现实…

作者头像 李华
网站建设 2026/2/25 4:21:40

lora-scripts使用指南:从数据预处理到权重导出完整流程

lora-scripts使用指南:从数据预处理到权重导出完整流程 在生成式AI快速普及的今天,越来越多开发者和企业希望基于大模型打造专属能力——无论是为品牌定制独特画风,还是让客服机器人掌握专业术语。然而全量微调成本高昂,部署困难&…

作者头像 李华
网站建设 2026/2/25 4:26:46

lora-scripts + Stable Diffusion WebUI:完整部署与模型调用教程

LoRA 微调实战:从训练到 WebUI 调用的完整闭环 在 AI 生成内容(AIGC)快速普及的今天,越来越多的创作者和开发者不再满足于使用通用模型“千人一面”地生成图像。无论是想复刻某个独特艺术风格、打造专属 IP 形象,还是为…

作者头像 李华
网站建设 2026/2/24 23:17:51

DataEase终极指南:零基础搭建企业级BI可视化平台

DataEase终极指南:零基础搭建企业级BI可视化平台 【免费下载链接】DataEase 人人可用的开源 BI 工具 项目地址: https://gitcode.com/feizhiyun/dataease 在数据驱动的时代,企业对于数据分析和可视化的需求日益增长。DataEase作为一款开源的BI工具…

作者头像 李华