gpu服务器配置深度学习(手把手教你在谷歌云平台搭建基于GPU的深度学习)

gpu服务器配置深度学习(手把手教你在谷歌云平台搭建基于GPU的深度学习)(1)

大数据文摘授权转载自 数据派THU

作者:Saurabh Bodhe

编译:陈振东、车前子

我知道,基于GPU的高端的深度学习系统构建起来非常昂贵,并且不容易获得,除非你……

https://hackernoon.com/deep-learning-with-google-cloud-plaTForm-66ada9d7d029

假设你有一台带有GPU的裸机,当然如果有些配置是预先设置好的,可以跳过下面部分教程。此外,我还假设你有一个NVIDIA的显卡,我们在本教程中只讨论如何配置TensorFlow,也就是目前最受欢迎的深度学习框架(向谷歌致敬!)

安装CUDA驱动程序

CUDA是NVIDIA开发的一个并行计算平台,是搭建TensorFlow的基本前提。但是我们后面会提到,实际上最好使用逆向工作的方法,所以我们稍后再回到这部分。

安装TensorFlow

启动终端(如果是远程访问的话,就使用SSH)。总之,找到特定应用程序(如果有的话)所需的TensorFlow版本,或者如果没有这样的限制,可以使用我目前使用的TensorFlow 1.8.0。

pip install tensorflow-gpu==1.8.0

在TensorFlow安装的时候,我们运行下python shell,

python

在Python shell中输入下面的代码:

import tensorflow as tf

但这时我们还没有安装CUDA,你会看到类似下面的报错:

ImportError: libcublas.so.9.0: cannot open shared object file: No such file or directory

9.0版本、文件名或者是其他的报错,这取决于您选择的TensorFlow版本。但是这样做的目的是知道我们需要哪个版本的CUDA,在这个例子中是9.0。官方文档中TF版本和CUDA版本的对应关系不是很清楚,所以我一直觉得这种逆向工程方法更好。

然后,我们再回到CUDA的安装。使用

exit()

退出Python shell。

安装CUDA驱动(相信我,这次是真的安装)

根据之前的操作,选择你需要的版本:

Linux->x86_64->Ubuntu->16.04 (or 17.04)->deb (network)

下载相应的.deb文件,并按照NVIDIA的官方说明安装CUDA。完成之后,让我们检查下是否一切正常。

再次打开Python shell并运行下面的代码,

import tensorflow as tf

当然,我们还没有完成,这次你会看到稍微不同的报错(如果在此之前就出现了类似的报错,参考下面的“Troubleshooting”中的修复方法)

ImportError: libcudnn.so.7: cannot open shared object file: No such file or directory

我们还需要NVIDIA提供的一个叫做cuDNN的库,它可以使用GPU加速深度神经网络的计算。注意,本教程中的cuDNN版本是7.0。

打开并注册一个帐户(免费的):

https://developer.nvidia.com/cudnn

注册好帐号后,登录:

https://developer.nvidia.com/rdp/cudnn-archive。

选择你需要的cuDNN版本,并确保你选择该版本所对应的CUDA版本。在本教程中,我们需要下载以下版本,

Download cuDNN v7.0.5 (Dec 5, 2017), for CUDA 9.0

在下拉选项中选择,

cuDNN v7.0.5 Library for Linux

这样,.tgz文件就开始下载了,将文件存储到你的机器上,并使用以下命令进行提取,

tar -xzvf <CUDNN_TAR_FILENAME>

最终提取出一个名为“CUDA”的文件夹,切换到该目录,并执行下面两条命令,

sudo cp lib64/* /usr/local/cuda/lib64/sudo cp include/cudnn.h /usr/local/cuda/include/

这样就完成了(但愿如此)。再次启动Python shell,这次你知道该做什么。

如果这次运行没有报错,那就没问题了。

为确保TensorFlow能够检测到GPU,在Python shell中使用以下代码,

tf.test.gpu_device_name()

它将会把所有可用的GPU显示出来。如果这个命令在旧版本的TF可能运行不了,可以试试下面的命令。

nvidia-smi

问题修复

如果所有配置都正确,nvidia-smi也可以执行,但TensorFlow仍然报出相同的错误,那么很有可能环境变量出了问题。执行下面的命令进行修复:

export LD_LIBRARY_PATH=/usr/local/cuda/lib64:${LD_LIBRARY_PATH}export PATH=/usr/local/cuda/lib64:${PATH}

如果nvidia-smi命令都无法执行,CUDA没有正确安装,那就重新安装配置一遍,看看有没有什么遗漏的地方。

欢迎大家提问,建议或者批评。

祝好。

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页