csdn排版不方便,欢迎大家关注我的gzh:阿龙AI日记
1 环境介绍
深度学习环境配置是小白入门的一大门槛,其实搞清楚了各个部件的作用,即使配置过程中出问题也根本不慌,最要命的就是连自己都不知道在安装什么。环境配置主要分为四个部分,我们一次熟悉它们的作用:
Anaconda安装
CUDA安装
Torch安装
Pycharm安装
1.1 Anaconda是什么?
你可以把Anaconda理解为一个房子,房子里面可以隔出很多个小房间。比如我们现在有的项目用的是Python3.1,有的项目用的是Python3.9,你要是在自己电脑里都来装这两个版本的Python,就会使得你的环境非常乱,所以Anaconda可以很好的帮你管理环境把它们划分为一个个的小房间,互不干扰。
除此之外,Anaconda中提供了一个非常强大的软件库,可以一键安装和删除成千上万个关于科学计算的包(PyTorch、Numpy以及TensorFlow等)。
并且用Anaconda创建虚拟环境后,我们便不用再单独安装Python。
1.2 CUDA是什么?
你的电脑是有显卡,有成千上万个GPU运算单元,但是它们并不是可以被拿来直接用的。CUDA是NVIDA提供的一套接口工具,包含驱动和编译器等,你只有安装了CUDA才能调用你的GPU。否则难道还要我们自己写代码来调用GPU吗?因此CUDA为我们在深度学习框架(Torch、Tensorflow等)之间搭建了桥梁,否则我们无法调用自己的GPU。
1.3 Torch是什么?
Torch是我们直接来构建网络模型、训练以及部署的核心工具。试想一下,如果神经网络的卷积层、反向传播、优化器等核心组件都要自己来实现一遍,是不是太麻烦了? 因此Torch是一个深度学习开发平台,里面集成了大量深度学习所需要的库。核心结构有张量、自动微分求导、神经网络层以及优化器等。
1.4 Pycharm是什么?
我们要写代码,总不能在记事本txt里面写吧,Python还需要看缩进,记事本那得调到天荒地老。所以Pycharm这种IDE(集成开发环境)就有必要出现了。
我们在Pycharm里面编写我们的代码,切换我们的Anaconda环境,改变我们的Python解释器,管理我们的项目,还可以断点调试,极大的提升了我们的编码效率和体验。
2 Anaconda安装
2.1 安装Anaconda
我们直接在浏览器中搜索Anaconda就可以找到Anaconda的官网,点击进去注册账号然后登陆就可以看到下图:
如果你是土豪内存大,无所谓,可以下载左边,如果你和我一样有内存焦虑,可以下载右边的Mninconda。
其实二者的区别就是Anaconda更全一下,Mini是缩减版的,但是其实一般而言,我们搞深度学习的Miniconda也够了。后续缺什么可以再下载也很方便。
因此推荐下载Miniconda。
下载完成后,我们双击它,一路Next:
点击I Agree:
选择所有用户:
选择安装路径,然后点击Next:
注意要选择第一个,否则到时候在开始菜单中找不到Anaconda的cmd:
2.2 配置环境变量
点击环境变量:
点击新建:
配置完成:
2.3 Anaconda创建虚拟环境
在开始中找到:
一般而言创建虚拟环境Anaconda会默认创建在C盘。如果想创建在D盘,我们可以执行命令:
#添加 D 盘路径为优先环境目录(路径可自定义,如 D:\my_conda_envs) conda config --add envs_dirs D:\conda_envs再查看是否生效:
bash conda config --show envs_dirs结果:
Conda常用命令:
bash #列出所有的环境(base 环境和所有的虚拟环境) conda env list #创建名为 env_name 的虚拟环境,并指定其 Python 版本为 3.9 conda create -n env_name python=3.9 #创建名为 “env_name” 的虚拟环境,并指定其 Python 版本为 3.9 和安装路径 conda create --prefix=安装路径\env_name python=3.9 #删除环境名为 “env_name” 的虚拟环境 conda remove -n env_name --all #进入名为 “env_name” 的虚拟环境 conda activate env_name我们来创建一个虚拟环境:
bash conda create -n Deeplearning python=3.9然后再进入虚拟环境:
分别执行命令安装Numpy、Pandas以及matplotlib:
conda install numpy conda install numpy conda install matplotlib当然我们也可以指定版本,比如:
bash conda install numpy=1.24.3 matplotlib=3.7.0我们再查看我们安装的内容:
bash conda list这个窗口先不要关,后面安装Torch还要用。
3 CUDA安装
3.1 查看CUDA是否安装
打开命令行输入nvcc -v:
在安装之前,我们需要查看自己的CUDA显卡驱动版本:nvidia-smi
发现CUDA Version:13.0,也就是版本为13.0。
3.3 安装CUDA
我们去CUDA的官网,搜索cuda-toolkit-archive,此时只要小于13.0就可以,我的CUDA是13.0,安装了12.8。
点击进去,选择操作系统,系统版本等:
下载完成后进行安装,选择安装路径(在安装过程中选择路径的时候,第一次选择的路径下的文件夹会消失。
此处为临时安装目录(默认就可),后期安装完成会自动删除。)
一路next到底:
会默认为我们添加环境变量:
我们再来查看是否安装成功:nvcc -v
一般还需要安装cuDNN,好像现在都自动安装了,就不用我们管了。
4 PyTorch安装
4.1 通过官网安装
终于到了安装PyTorh这一步,我们直接搜索pytorch就可以找到PyTorch官网:
再选择我们的版本:
将torch为我们生成的命令输入我们之前创建的虚拟环境中,也就是前面的那个Deeplearning,
bash conda activate Deeplearning如果刚才窗口关了我们需要再次进入,然后执行官网给的语句。 如果下载太慢需要挂镜像,我们只需要将后面的连接替换为镜像源,比如清华的或者中科大南京大学的等。大家可以搜索一下。
4.2 检查是否安装好
安装完后,再通过coda list看是否安装好:
此时我们可以进入python交互,执行python,逐行执行:
import torch print(torch.version) print(torch.version.cuda) print(torch.cuda.is_available()) #输出为True,则安装成功此时PyTorch安装成功。
5 Pycharm安装
5.1 Pycharm下载
直接浏览器搜索Pycharm,注意下载社区版,专业版需要充钱的。 安装的时候记得勾选添加环境变量:
直接安装:
5.2 选择解释器
此时安装完Pycharm之后,还需要改变Pycharm的解释器,让它正确地找到我们刚才安装的环境,否则会报找不到module的错误。找到设置:
找到解释器——>添加本地解释器:
选择虚拟环境,点击现有:
找到对应的python.exe(这个路径就是刚才自己定义的虚拟环境的路径):
然后点击确定,Pycharm就可以识别到我们刚才安装的环境了。代码跑起来:
看我们的显卡使用情况: