1. 搭建Python环境
长话短说,间接应用Anaconda装置Python环境以及一些罕用的软件包
官网比较慢,能够应用清华的开源镜像站下载适合的版本:
https://mirrors.tuna.tsinghua...
本文应用的是Anaconda3-2018.12-Windows-x86_64版本
装置过程不再赘述,记得把不举荐的「配置环境变量」选项选上
装置胜利后,能够查看python版本:
2. 装置NVIDIA驱动程序
官网地址:https://www.nvidia.cn/geforce...
留神:搜寻适合的驱动程序之后,会默认下载DCH版本驱动,装置时可能会呈现以下问题
所以,在下载时,须要将链接中的dch去掉,下载标准版驱动
上边那个才是标准版的,不要下载成下边的DCH版本的了
3. 装置CUDA
CUDA (Compute Unified Device Architecture) 是一种由NVIDIA推出的用于自家GPU的并行计算架构,该架构使GPU进行能够大量并行计算,可能解决简单的计算问题。
CUDA的实质上就是一个工具包(ToolKit),本文抉择的是CUDA 10版本
装置胜利后去cmd执行nvcc -V,能够看到版本号信息
4. 装置CUDNN
如上所述,CUDA并不是针对于神经网络的GPU减速库,它是面向各种须要并行计算的利用而设计的。为了可能更疾速的训练神经网络,还须要额定装置cuDNN。
NVIDIACUDA®深度神经网络库 (cuDNN) 是GPU减速的用于深度神经网络的原语库。
援用
cuDNN为规范例程提供了高度优化的实现,例如向前和向后卷积,池化,规范化和激活层。
也就是说,能够将cuDNN了解为是一个SDK,是一个专门用于神经网络的减速包,本文抉择的是cuDNN v7.6.5.32版本
解压cnDNN压缩包,将其中的cuda文件夹复制到CUDA的装置目录中,本文应用的是默认门路:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0
解压实现后,须要在零碎变量的Path变量中减少其bin门路,并将该项置顶:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\cuda\bin
5. 装置TensorFlow
装置Anaconda时,同时装置上了Python包管理工具pip,这里就能够间接应用pip install命令装置TensorFlow了
为了减速装置,应用-i命令装置清华源的包,本文装置的是TensorFlow GPU的2.0.0版本:
pip install -U tensorflow-gpu==2.0.0 -i https://pypi.tuna.tsinghua.ed...
装置时可能某些包会呈现一些谬误,比方wrapt装置失败
执行命令独自装置下那些出错的包就好了,比方:
pip install -U --ignore-installed wrapt
而后重新安装TensorFlow即可
6. Hello World
装置好了,连忙去Hello World一下
在cmd输出ipython,而后执行
import tensorflow as tf
如果呈现了numpy相干的谬误,能够是因为版本不匹配导致的
应用pip show numpy命令查看到以后的numpy版本是1.15.4,而后应用清华源装置最新的numpy
pip install --upgrade numpy -i https://pypi.tuna.tsinghua.ed...
将版本升级为1.21.4
再去试试
至此,TensorFlow算是装置实现了。
参考鸣谢
安装包: https://blog.csdn.net/zimiao5...
清华源: https://pypi.tuna.tsinghua.ed...