Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

人工智能90

安装Anaconda(2022.05)

最新版本 https://www.anaconda.com/
历史版本 https://repo.anaconda.com/archive/

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

打开安装包:
next

I Agree

Just Me(影响之后创建虚拟环境的默认位置,选择Just Me虚拟环境默认在安装Anaconda文件夹下的evns文件夹下;选择All User虚拟环境默认安装在C:\Users\DQD.conda\envs)

选择安装位置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

勾选第一个选项,在普通的命令行窗口可以使用Anaconda指令;若不勾选,只能在Anaconda命令行窗口中使用Anaconda指令。可选可不选。(本次不勾选)
本次勾选第二个选项,可选可不选。

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

安装

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

next

next

Finish

检验Anaconda是否安装成功
方法1:打开Anaconda图形化界面,在Enviroments选项中查看是否存在base环境,若有,则说明成功安装。

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

方法2:
打开Anaconda命令行窗口

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

上面的Powershell是Windows为开发者提供的功能更大的窗口

查看conda版本号

conda --version

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

创建虚拟环境

利用 conda create 指令创建新的虚拟环境

conda create -n pytorch python=3.8

"-n" 表示 name 的意思

"pytorch" 表示环境的名字

"python=3.8" 表示安装的python解释器的版本号

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

上图中说明了新建的虚拟环境的安装位置 enviroment location
以及在虚拟环境中安装的包package

遇到"y/n?", 输入"y"即可

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

conda activate pytorch // 激活名为"pytorch"的环境
conda deactivate // 退出当前环境

查看当前Anaconda中已经存在的虚拟环境及其所在的位置

conda env list

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

激活创建的环境,并查看环境中已安装的工机包package
此时并没有pytoch包

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

GPU 准备工作

图片来自 B站up主:我是土堆
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

显卡是一个硬件,需要安装相应的驱动才能被计算机识别。

安装显卡驱动时,CUDA Driver也安装上了。
CUDA可以是一个使显卡实现并行运算的平台/软件。

有了CUDA Runtime,才能调用CUDA Driver里的东西,进而调用显卡做深度学习的加速运算。

确定显卡型号:NIDIA GeForce MX150
确定显卡算力:6.1
可通过维基百科搜索cuda查看 https://en.wikipedia.org/wiki/CUDA
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置
确定CUDA Runtime
不同的CUDA支持不同的算力
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

安装显卡驱动CUDA Driver(11.7)

需要安装最新版本的显卡驱动:https://www.nvidia.cn/Download/index.aspx?lang=cn

默认安装位置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

默认选项(第一个)

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

自定义

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

一定要勾选清洁安装

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置
下一步

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

重启

确定CUDA Driver的版本(11.7)

通过命令查看

nvidia-smi //注意中间没有空格

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

确定CUDA Runtime版本(11.6)

打开pytorch官网 https://pytorch.org/
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

这里的CUDA 10.2 11.3 11.6指的是CUDA Runtime的版本
CUDA Runtime的版本号<=CUDA Driver的版本号即可(本机为CUDA Driver 11.7)

up主建议选择小于11.7的最新版本,本次选择11.6

安装pytorch(1.12.1)

conda install pytorch torchvision torchaudio cudatoolkit=11.6 -c pytorch -c conda-forge

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

过程中会自动安装cudnn

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

安装完成
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

验证

通过conda list 可以看到pytorch已经被安装 显示torch pytorch都可以
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

import torch
torch.cuda.is_available()

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

pycharm配置(2022.02)

pycharm安装非常简单,这里不再展示。
打开pycharm
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置

配置成功

参考:https://www.bilibili.com/video/BV1S5411X7FY?p=1&vd_source=2260f60fe8d8001d3d4f8227f2b1c002

Original: https://www.cnblogs.com/ddqdd/p/16608437.html
Author: 听雨画船眠
Title: Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置



相关阅读

Title: Python报错:Variable conv1/weights does not exist, or was not created with tf.get_variable().

报错完整版:
Variable conv1/weights does not exist, or was not created with tf.get_variable(). Did you mean to set reuse=tf.AUTO_REUSE in VarScope?

想看解决方法直接看最后,想学习好玩的小知识就全看完!!!
截图如下:
Anaconda, PyTorch, CUDA Driver, PyCharm 安装与配置
报错代码为:

conv1 = slim.layers.conv2d(self.inputs, 16, 3, padding="SAME", scope='conv1')

函数完整代码为:

    def build_origin_net(self, keep_prob):
        with slim.arg_scope([slim.conv2d, slim.fully_connected],
                            activation_fn=tf.nn.relu,
                            weights_regularizer=slim.l1_regularizer(0.001)):

            # tf.get_variable_scope().reuse_variables()

            conv1 = slim.layers.conv2d(self.inputs, 16, 3, padding="SAME", scope='conv1')

            # 2 x 2 / 1
            pool1 = slim.layers.max_pool2d(conv1, kernel_size=[2, 2], stride=[2, 2], scope='pool1')

            # 128 / 3 x 3 / 1 / 1
            conv2 = slim.layers.conv2d(pool1, 32, 3, padding="SAME", scope='conv2')

            # 2 x 2 / 1
            pool2 = slim.layers.max_pool2d(conv2, kernel_size=[2, 2], stride=[2, 2], scope='pool2')

            # 256 / 3 x 3 / 1 / 1
            conv3 = slim.layers.conv2d(pool2, 32, 3, padding="SAME", scope='conv3')

            # 1 x 2 / 1
            pool3 = slim.layers.max_pool2d(conv3, kernel_size=[2, 2], stride=[2, 2], padding="SAME", scope='pool3')

            flatten = slim.flatten(pool3)

            fc1 = slim.layers.fully_connected(flatten, 128, scope='fc1')

            fc2 = slim.layers.fully_connected(fc1, 256, scope='fc2')

        dp2 = slim.layers.dropout(fc2, keep_prob=keep_prob)

        logits = slim.layers.fully_connected(dp2, 10, scope='logits')

        pred = slim.layers.softmax(logits=logits, scope='pred')

        out = {'conv1': conv1, 'pool1': pool1, 'conv2': conv2, 'pool2': pool2, 'conv3': conv3, 'pool3': pool3,
               'flatten': flatten, 'fc1': fc1, 'fc2': fc2,
               'logits': logits, 'pred': pred}
        return out

报错解释:
变量conv1/weights不存在或者没有使用 tf.get_variable()创建,你的意思是在VarScope中设置reuse=tf.AUTO_REUSE吗?

函数解析: tf.get_variable()
参考:https://blog.csdn.net/weixin_44791964/article/details/96134474
初始化一个变量并对其进行命名、大小指定、类型指定等

因此可以简单判断报错原因是变量没有声明,但python中不是不需要进行变量声明的吗,还是说这个函数在使用时必须得提前声明?不知道答案,只能去百度了,百度结果如下:
https://blog.csdn.net/ch_xiaochou/article/details/103696125
其文章大意是将将reuse设置为True或者False,但我感觉这不是根本原因
我所跑的代码是从github上下载的,一般而言作者运行过的代码只可能出现 文件路径问题版本不兼容问题
从代码本身下手,首先查看函数slim.arg_scope如何使用
参考:https://cloud.tencent.com/developer/article/1450675
这篇文章对函数内部的参数没有很明确的解释与测试,意义不大,再次查询参考文章
参考:https://blog.csdn.net/qq_34914551/article/details/86073166
通过这篇文章的描述,函数slim.arg_scope的作用为对某些常用函数的共同的参数进行统一赋值,免去在接下来的函数中调用函数时重复对参数进行实参赋值。
with函数本身可以理解为一个自带close的函数封装体
分析结果:函数slim.arg_scope对报错应该没有影响。
继续查询如下函数的使用方法

conv1 = slim.layers.conv2d

参考:https://blog.csdn.net/webmater2320/article/details/88637237
通过文章我大致猜测,报错问题出现在最后一个变量scope中,scope的官方解释为:共享变量所指的variable_scope(变量范围)
相关知识点: 变量共享机制
参考:https://www.zhihu.com/question/54513728
链接相关文章简单阐述了两种变量命名的方式之间的区别以及两种scope之间的区别
好吧我承认,没找到问题
在导入tensorflow后添加语句'tf.reset_default_graph()',似乎解决了该问题
代码如下:

import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
tf.reset_default_graph()

Original: https://blog.csdn.net/qq_42752888/article/details/122945384
Author: 是ZZJin
Title: Python报错:Variable conv1/weights does not exist, or was not created with tf.get_variable().