news 2026/4/13 9:30:08

Day39 PythonStudy

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Day39 PythonStudy

@浙大疏锦行

import torch torch.cuda import torch # 检查CUDA是否可用 if torch.cuda.is_available(): print("CUDA可用!") # 获取可用的CUDA设备数量 device_count = torch.cuda.device_count() print(f"可用的CUDA设备数量: {device_count}") # 获取当前使用的CUDA设备索引 current_device = torch.cuda.current_device() print(f"当前使用的CUDA设备索引: {current_device}") # 获取当前CUDA设备的名称 device_name = torch.cuda.get_device_name(current_device) print(f"当前CUDA设备的名称: {device_name}") # 获取CUDA版本 cuda_version = torch.version.cuda print(f"CUDA版本: {cuda_version}") else: print("CUDA不可用。")
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split import numpy as np iris = load_iris() X = iris.data y = iris.target X_train, X_test, y_train, y_test = train_test_split(X,y,test_size=0.2,random_state=42) print(X_train.shape) print(y_train.shape) print(X_test.shape) print(y_test.shape)

(120, 4)
(120,)
(30, 4)
(30,)

# 归一化数据,神经网络对于输入数据的尺寸敏感,归一化是最常见的处理方式 from sklearn.preprocessing import MinMaxScaler scaler = MinMaxScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) # 将数据转换为 PyTorch 张量,因为 PyTorch 使用张量进行训练 # y_train和y_test是整数,所以需要转化为long类型,如果是float32,会输出1.0 0.0 X_train = torch.FloatTensor(X_train) y_train = torch.LongTensor(y_train) X_test = torch.FloatTensor(X_test) y_test = torch.LongTensor(y_test) import torch import torch.nn as nn import torch.optim as optim class MLP(nn.Module): def __init__(self): super(MLP,self).__init__() #开始自定义部分 self.fc1 = nn.Linear(4,10) self.relu = nn.ReLU() self.fc2 = nn.Linear(10,3) def forward(self,x): out = self.fc1(x) out = self.relu(out) out = self.fc2(out) return out #模型实例化 model = MLP() # 分类问题使用交叉熵损失函数 criterion = nn.CrossEntropyLoss() # 使用随机梯度下降优化器 optimizer = optim.SGD(model.parameters(), lr=0.01) # 训练 num_epochs = 10 losses = [] for epoch in range(num_epochs): #前向传播 outputs = model.forward(X_train) loss = criterion(outputs,y_train) #反向传播 optimizer.zero_grad() #梯度清零 loss.backward()#反向传播计算梯度 optimizer.step()#更新参数 #记录损失 losses.append(loss.item()) #打印训练信息 print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

Epoch [1/10], Loss: 1.1156
Epoch [2/10], Loss: 1.1153
Epoch [3/10], Loss: 1.1150
Epoch [4/10], Loss: 1.1147
Epoch [5/10], Loss: 1.1144
Epoch [6/10], Loss: 1.1141
Epoch [7/10], Loss: 1.1138
Epoch [8/10], Loss: 1.1135
Epoch [9/10], Loss: 1.1132
Epoch [10/10], Loss: 1.1130

import matplotlib.pyplot as plt plt.plot(range(num_epochs),losses) plt.xlabel('Epoch') plt.ylabel('Loss') plt.title('Training Loss over Epochs') plt.show()

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/12 18:57:34

LobeChat能否应用于自动驾驶?车载语音助手升级

LobeChat能否应用于自动驾驶?车载语音助手升级 在智能汽车的演进浪潮中,一个看似简单却极为关键的问题正在浮现:为什么我们和车说话,它还是听不懂“人话”? 尽管今天的车辆已经能自动变道、识别红绿灯,但当…

作者头像 李华
网站建设 2026/4/10 15:31:47

Windows10下WSL安装vLLM 0.11.0避坑指南

Windows10下WSL安装vLLM 0.11.0避坑指南 在当前大模型快速落地的背景下,本地部署一个高性能、低延迟的推理服务已成为许多开发团队的刚需。尤其是像 vLLM 这类支持 PagedAttention 和连续批处理的引擎,凭借其高吞吐、低显存占用的优势,正被广…

作者头像 李华
网站建设 2026/4/12 11:07:18

DeepSeek-V2.5:强大多用途语言模型解析

DeepSeek-V2.5 与 PyTorch-CUDA 镜像:构建高效大模型开发环境 在当今 AI 研发节奏日益加快的背景下,一个稳定、高性能且开箱即用的开发环境,往往决定了从实验到落地的速度。尤其当我们面对像 DeepSeek-V2.5 这类参数量达百亿级别、对计算资源…

作者头像 李华
网站建设 2026/4/12 8:56:50

Qwen3-32B模型实战指南:长文本处理与企业部署

Qwen3-32B 实战指南:长文本处理与企业级部署 你有没有经历过这样的场景?团队正在开发一个智能合同审查系统,模型读到第10页就开始“遗忘”前文;或者在做代码生成时,刚把项目架构拼好,模型却忘了最初的需求。…

作者头像 李华
网站建设 2026/4/12 5:06:54

MemTest64官网下载和安装图文教程(附安装包,超详细)

MemTest64 是一款专门用于检测电脑内存(RAM)健康状况和稳定性的免费诊断软件。 MemTest64 的工作方式,是向你的电脑内存条写入各种复杂的测试数据模式,然后立刻读取出来进行比对。如果读取出来的数据和写入时不一样,就…

作者头像 李华