1. 搭建Python环境

长话短说,间接应用Anaconda装置Python环境以及一些罕用的软件包
官网比较慢,能够应用清华的开源镜像站下载适合的版本:

https://mirrors.tuna.tsinghua...

本文应用的是Anaconda3-2018.12-Windows-x86_64版本

装置过程不再赘述,记得把不举荐的「配置环境变量」选项选上

装置胜利后,能够查看python版本:

2. 装置NVIDIA驱动程序

官网地址:https://www.nvidia.cn/geforce...

留神:搜寻适合的驱动程序之后,会默认下载DCH版本驱动,装置时可能会呈现以下问题

所以,在下载时,须要将链接中的dch去掉,下载标准版驱动

上边那个才是标准版的,不要下载成下边的DCH版本的了

3. 装置CUDA

CUDA (Compute Unified Device Architecture) 是一种由NVIDIA推出的用于自家GPU的并行计算架构,该架构使GPU进行能够大量并行计算,可能解决简单的计算问题。

CUDA的实质上就是一个工具包(ToolKit),本文抉择的是CUDA 10版本

装置胜利后去cmd执行nvcc -V,能够看到版本号信息

4. 装置CUDNN

如上所述,CUDA并不是针对于神经网络的GPU减速库,它是面向各种须要并行计算的利用而设计的。为了可能更疾速的训练神经网络,还须要额定装置cuDNN。

NVIDIACUDA®深度神经网络库 (cuDNN) 是GPU减速的用于深度神经网络的原语库。
援用
cuDNN为规范例程提供了高度优化的实现,例如向前和向后卷积,池化,规范化和激活层。

也就是说,能够将cuDNN了解为是一个SDK,是一个专门用于神经网络的减速包,本文抉择的是cuDNN v7.6.5.32版本

解压cnDNN压缩包,将其中的cuda文件夹复制到CUDA的装置目录中,本文应用的是默认门路:

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0

解压实现后,须要在零碎变量的Path变量中减少其bin门路,并将该项置顶:

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\cuda\bin

5. 装置TensorFlow

装置Anaconda时,同时装置上了Python包管理工具pip,这里就能够间接应用pip install命令装置TensorFlow了

为了减速装置,应用-i命令装置清华源的包,本文装置的是TensorFlow GPU的2.0.0版本:

pip install -U tensorflow-gpu==2.0.0 -i https://pypi.tuna.tsinghua.ed...

装置时可能某些包会呈现一些谬误,比方wrapt装置失败

执行命令独自装置下那些出错的包就好了,比方:

pip install -U --ignore-installed wrapt

而后重新安装TensorFlow即可

6. Hello World

装置好了,连忙去Hello World一下
在cmd输出ipython,而后执行

import tensorflow as tf

如果呈现了numpy相干的谬误,能够是因为版本不匹配导致的
应用pip show numpy命令查看到以后的numpy版本是1.15.4,而后应用清华源装置最新的numpy

pip install --upgrade numpy -i https://pypi.tuna.tsinghua.ed...

将版本升级为1.21.4

再去试试

至此,TensorFlow算是装置实现了。

参考鸣谢

安装包: https://blog.csdn.net/zimiao5...
清华源: https://pypi.tuna.tsinghua.ed...