生活
cudnn下载 、cudnn下载很慢
2023-04-08 01:56  浏览:28

笔记本1650显卡初始驱动

笔记本1650显卡初始驱动:首先,我们打开笔记本电脑,我们点击打开控制面板,

2/5

接下来,我们点击打开设备管理器,

3/5

然后,我们右击显卡,点击打开属性,

4/5

接着,我们点击打开上方的驱动程序选项卡,

5/5

最后,我们直接点击更新驱动程序按钮,就可以安装推荐驱动了。

百度经验

网吧安装cuda

方法如下:

选择好自己所需版本,这里是我推荐的选择,然后点击Download。

cudnn官网地址,直接寻找并下载7.4.1.5版本的cudnn。

下载完后应该是两个文件。

1、打开cuda.exe进行安装,可能会出现提示,选择OK即可。

2、同意并继续。

3、这里我们选择【自定义】,然后下一步。

4、这里是安装的驱动程序组件,默认全选,然后下一步。

5、直接默认装在C盘,这样可以防止各种出错。

6、这里提示没有CUDA的编辑器,不用管它,勾选了然后Next,等待安装。

7、可能有些同学会报安装失败,这里不用担心,只是一两个工具没有装上,不影响。安装完成后,解压刚刚下载的第二个文件,即Cudnn的压缩包,然后进入cuda目录,复制这些文件。

8、进入C:Program FilesNVIDIA GPU Computing ToolkitCUDAv10.0中,将刚刚复制的文件粘贴到这里,到此安装完成。

9、安装成功。

linux caffe支持的cuda capability 最小是多少

由于最近安装了Ubuntu16.04,苦于之前配置Caffe的教程都在版本14.04左右,无奈只能自己摸索,最终配置成功。本文教程的特点是不需要降级gcc的版本,毕竟cuda7.5不支持gcc5以上(默认不支持,实际支持),避免出现一系列乱七八糟的问题,反正之前我是碰到了。

本文是在参考caffe官网教程()结合自己总结经验而来,对此表示感谢。

1.所需文件下载

1.1.Ubuntu16.04在官网下载(),然后在windows下用UltraISO制作,相关文章搜索有一大片,此处不再赘述。

1.2.cuda7.5下载,下载的版本是ubuntu15.04的run文件,个人感觉比较方便。

1.3.cudnn4.0下载(),进去之后如果有注册过nvidia的账户直接点击download,否则需要注册一个账户,注册完之后有一个调查,随便选几个钩就可以,然后下一步是接受条款开始就可以下载了。

1.4.caffe下载()就在官方的github下载就可以了。

2.显卡驱动安装

2.1.***种方法是直接在ubuntu系统设置,软件和更新里面,选择中国的服务器源刷新之后,点击附加驱动选项,在Nvidia Corporation选择361.42(强迫症必须安装最新的),然后点击应用更改,下载安装完之后重启。

2.2.第二种方法是去官方下载()好驱动的run文件,选择对应显卡型号下载。然后关机把显示器插到集成显卡接口上,或者终端下

sudo gedit /etc/modprobe.d/blacklist.conf

输入密码后在最后一行编辑上

blacklist nouve***

Ctrl +C保存后终端输入

sudo update-initramfs -u

重启之后在界面按Ctrl+Alt+F2,输入root以及密码,然后

service lightdm stop

sh 你自己的驱动文件的完整路径,默认选项就可以安装了,安装后重启

3.Cuda7.5安装

3.1.以文件名为cuda.run为例,终端下输入

sh cuda.run --override 启动安装程序,此处有大量的条款,一路空格到最后 输入accept,依次输入y回车,然后n(不安装显卡驱动),然后一路y回车,有一个地方需要输入密码,还有两个地方确认安装路径,直接回车即可,完成安装,默认安装路径是/usr/local

将下载下来的cudnn-7.0-linux-x64-v4.0-prod.tgz 解压之后,解压后的cuda文件夹先打开里面的include文件夹,空白右键在终端打开输入:

sudo cp cudnn.h /usr/local/cuda/include/

cd ~/cuda/lib64

sudo cp lib* /usr/local/cuda/lib64/

继续更新文件链接

cd /usr/local/cuda/lib64/

sudo rm -rf libcudnn.so libcudnn.so.4

sudo ln -s libcudnn.so.4.0.7 libcudnn.so.4

sudo ln -s libcudnn.so.4 libcudnn.so

然后设置环境变量

sudo gedit /etc/profile

在末尾加入

PATH=/usr/local/cuda/bin:$PATH

export PATH

保存之后创建链接文件

sudo vim /etc/ld.so.conf.d/cuda.conf

键盘按i进入编辑状态,添加文字

/usr/local/cuda/lib64

然后按esc,输入:wq保存退出。

终端下接着输入

sudo ldconfig 使链接生效

4.生成Cuda Sample测试

首先在此之前先把需要的依赖包都安装好,为接下来make caffe做准备

sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler

sudo apt-get install --no-install-recommends li***oost-all-dev

sudo apt-get install libatlas-base-dev

sudo apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev

然后开始make samples ,终端下

cd /home/gomee/NVIDIA_CUDA-7.5_Samples

sudo make all -j4

我是4核电脑所以用了j4,正常情况下肯定会报错“unsupported GNU version! gcc versions later than 4.9 are not supported!”,原因就是这个cuda不支持gcc5.0以上,终端运行

cd /usr/local/cuda-7.5/include

cp host_config.h host_config.h.bak

sudo gedit host_config.h

Ctrl+F寻找有”4.9”的地方,应该是只有一处,在其上方的

#if __GNUC__ 4 || (__GNUC__ == 4 __GNUC_MINOR__ 9)将两个4改成5,保存退出,继续

cd /home/gomee/NVIDIA_CUDA-7.5_Samples

sudo make all -j4

这就应该开始make了,此处大约有5、6分钟。完成之后

cd /home/gomee/NVIDIA_CUDA-7.5_Samples/bin/x86_64/linux

./deviceQuery

会出现类似以下的信息

CUDA Device Query (Runtime API) version (CUDART static linking)

Detected 1 CUDA Capable device(s)

Device 0: "GeForce GTX 750 Ti"

CUDA Driver Version / Runtime Version 8.0 / 7.5

CUDA Capability Major/Minor version number: 5.0

Total amount of global memory: 2047 MBytes (2146762752 bytes)

( 5) Multiprocessors, (128) CUDA Cores/MP: 640 CUDA Cores

GPU Max Clock rate: 1228 MHz (1.23 GHz)

Memory Clock rate: 3004 Mhz

Memory Bus Width: 128-bit

L2 Cache Size: 2097152 bytes

Maximum Texture Dimension Size (x,y,z) 1D=(65536), 2D=(65536, 65536), 3D=(4096, 4096, 4096)

Maximum L***ered 1D Texture Size, (num) l***ers 1D=(16384), 2048 l***ers

Maximum L***ered 2D Texture Size, (num) l***ers 2D=(16384, 16384), 2048 l***ers

Total amount of constant memory: 65536 bytes

Total amount of shared memory per block: 49152 bytes

Total number of registers available per block: 65536

Warp size: 32

Maximum number of threads per multiprocessor: 2048

Maximum number of threads per block: 1024

Max dimension size of a thread block (x,y,z): (1024, 1024, 64)

Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535)

Maximum memory pitch: 2147483647 bytes

Texture alignment: 512 bytes

Concurrent copy and kernel execution: Yes with 1 copy engine(s)

Run time limit on kernels: Yes

Integrated GPU sharing Host Memory: No

Support host page-locked memory mapping: Yes

Alignment requirement for Surfaces: Yes

Device has ECC support: Disabled

Device supports Unified Addressing (UVA): Yes

Device PCI Domain ID / Bus ID / location ID: 0 / 1 / 0

Compute Mode:

Def***lt (multiple host threads can use ::cudaSetDevice() with device simultaneously)

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 8.0, CUDA Runtime Version = 7.5, NumDevs = 1, Device0 = GeForce GTX 750 Ti

Result = PASS

这就说明成功了。

5.Python配置

将之前github下载的caffe压缩文件解压缩到任一目录,然后安装python

python的版本安装有两种方式:

***是直接安装anaconda,去官网下载 ,选择linux 64bit 2.7版本下载安装,anaconda安装方便但是需要在最后的make配置文件中更改python包含路径。

第二种方法就是使用原生的python2.7版本,终端下

sudo apt-get install python-pip 安装pip

这里我们用pip安装一些python需要的依赖包,不过为了避免各种问题,也可以通过apt-get安装,反正我这两种方式都安装了一遍(-.-)

sudo apt-get install python-numpy python-scipy python-matplotlib ipython ipython-notebook python-pandas python-sympy python-nose

以caffe默认解压到/home/user(你的用户名)/ ,文件夹名名称caffe为例

cd /home/user/caffe/python

sudo su

for req in $(cat requirements.txt); do pip install $req; done

这里用pip安装可能速度很慢,很可能下载好几个小时,推荐用清华大学的pip源临时安装,所以命令改为如下:

for req in $(cat requirements.txt); do pip install -i $req; done

这里如果***次有很多红字错误,建议再运行几遍指导安装成功,对于黄字提示无需理会,可能是pip版本需要更新。

6.Caffe编译过程

接下来要进入最后的步骤了,终端中

cd /home/user/caffe

cp Makefile.config.example Makefile.config

gedit Makefile.config

将USE_CUDNN := 1 取消注释,在

INCLUDE_DIRS := $(PYTHON_INCLUDE) /usr/local/include后面打上一个空格 然后添加/usr/include/hdf5/serial 如果没有这一句可能会报一个找不到hdf5.h的错误

PYTHON_INCLUDE := /usr/include/python2.7

/usr/lib/python2.7/dist-packages/numpy/core/include先不做更改。

如果是需要生成matlab的caffe wrapper 请取消注释MATLAB_DIR然后替换为自己的目录

说一下提前会出现的问题:

***,make过程中出现比如 string.h ‘memcy’ was not declared in this scope的错误是由于gcc编译器版本太新,解决方法是打开makefile搜索并替换

NVCCFLAGS += -ccbin=$(CXX) -Xcompiler -fPIC $(COMMON_FLAGS)

NVCCFLAGS += -D_FORCE_INLINES -ccbin=$(CXX) -Xcompiler -fPIC $(COMMON_FLAGS)

保存退出

第二,在make过程中还会报一个ld找不到libhdf5 和libhdf5_hl的链接问题,这个原因可能也是因为hdf5的问题,首先看/usr/lib/x86_64-linux-gnu 目录下有没有libhdf5.so和libhdf5_hl.so,如果有的话,查看属性是否有正确的链接(正常情况下应该是没有这两个文件),然后右键在终端中打开

sudo ln libhdf5_serial.so.10.1.0 libhdf5.so

sudo ln libhdf5_serial_hl.so.10.0.2 libhdf5_hl.so

注意,10.1.0和10.0.2可能不同电脑安装版本不同,注意看当前目录下存在的文件然后

sudo ldconfig 生效

接下来就是直接编译的过程

cd /home/user/caffe

make all -j4

make test -j4

make runtest

make pycaffe

make matcaffe

如果编译没报错正常的话,基本就没问题了。测试python打开

cd /home/user/caffe/python

python

import caffe

如果不报错就说明编译成功

测试matlab打开./caffe/matlab/+caffe/private,看有没有生成一个caffe的mex文件,可以运行+test文件夹里面的程序测试。

小问题:

在使用python接口的时候,可能会报一个什么错误(我给忘记了–!),对了是’Mean shape incompatible with input shape.’的错误,处理方法是python/caffe文件夹,编辑io.py文件,将

if ms != self.inputs[in_][1:]:

raise ValueError('Mean shape incompatible with input shape.')

替换为

if ms != self.inputs[in_][1:]:

print(self.inputs[in_])

in_shape = self.inputs[in_][1:]

m_min, m_max = mean.min(), mean.max()

normal_mean = (mean - m_min) / (m_max - m_min)

mean = resize_image(normal_mean.transpose((1,2,0)),in_shape[1:]).transpose((2,0,1)) * (m_max - m_min) + m_min

然后make clean再重新make

7.总结

至此,Ubuntu16.04下编译Caffe的教程就结束了,作者历时三天,装了好几遍系统,刚开始用Ubuntu14.04,结果系统出现问题,强迫症实在受不了,就尝试着装16.04继续折腾,最终折腾成功。以后可能会更新python3下的编译教程,需要自己编译boost版本,总之也很麻烦。

cudnn安装问题求助

NVIDIA CuDNN 安装说明

CuDNN是专门针对Deep Learning框架设计的一套GPU计算加速方案,目前支持的DL库包括Caffe,ConvNet, Torch7等。

CuDNN可以在官网免费获得,注册帐号后即可下载。官网没有找到安装说明,下载得到的压缩包内也没有Readme. 不过google一下就会找到许多说明。基本原理是把lib文件加入到系统能找到的lib文件夹里, 把头文件加到系统能找到的include文件夹里就可以。这里把他们加到CUDA的文件夹下(参考这里)

tar -xzvf cudnn-6.5-linux-R1.tgz

cd cudnn-6.5-linux-R1

sudo cp lib* /usr/local/cuda/lib64/

sudo cp cudnn.h /usr/local/cuda/include/

执行后发现还是找不到库, 报错

error while loading shared libraries: libcudnn.so.6.5: cannot open shared object file: No such file or directory

而lib文件夹是在系统路径里的,用ls -al发现是文件权限的问题,因此用下述命令先删除软连接

cd /usr/local/cuda/lib64/

sudo rm -rf libcudnn.so libcudnn.so.6.5

然后修改文件权限,并创建新的软连接

sudo chmod u=rwx,g=rx,o=rx libcudnn.so.6.5.18

sudo ln -s libcudnn.so.6.5.18 libcudnn.so.6.5

sudo ln -s libcudnn.so.6.5 libcudnn.s

普通电脑PC怎样跑TensorFlow的GPU模式

首先需要看你的PC配置是否够,TF的GPU模式只支持N卡,然后计算能力高于3.0,具体可以查:

安装教程可以参考:

Ubuntu16.04上gtx1080的cuda安装

July 17 2016

目前tensorflow是一个非常流行的深度学习计算框架,常规硬件及系统的安装方法官方的doc已经说的很清楚了,但是 因为系统是ubuntu16.04,显卡是GTX1080,所以不可避免的要折腾起来。在上一篇已经在16.04上安装好了驱动。接下来其实 重点安装的是CUDA和cuDNN.

首先说为什么要安装CUDA和cuDNN,关于采用GPU计算比CPU有速度有多少提升的benchmark找找就有,这次重点是怎么让tensorflow充分用的 上GTX1080能力。具体的就是如何把支持GTX1080的CUDA和cuDNN装起来,然后让tensorflow认识我们新装的CUDA和cuDNN。

首先总体说下安装步骤:

1 首先要注册NVIDIA developer的帐号,分别下载CUDA和cuDNN

2 确认准备gcc版本,安装依赖库sudo apt-get install freegl

3 安装CUDA

4 解压cuDNN

5 clone tensorflow源码,configure配置

6 编译安装

7 最后一哆嗦,测试!

准备工作

在正式开始前,需要做几个准备工作,主要是大概先看下文档

cuda FAQ

tensorflow 的安装文档

cuda-gpu的支持列表/计算能力/FAQ

cudnn 5.1有多牛

cuda tookit下载页面

CUDA_Installation_Guide_Linux.pdf

cudnn User Guide

文档看过之后接下来就是实际动手的过程:

1 注册NVIDIA developer的帐号,分别下载CUDA和cuDNN

1.1 下载CUDA 打开cuda toolkit下载页面,GTX1080 要用的是CUDA 8。先点击JOIN,注册帐号。 完了后,再回到cuda toolkit下载页面。选择 linux, x86-64, ubuntu, 16.04, runfile(local)

1.2 下载cuDNN 进入cudnn的下载页,一堆调查,日志写时下载的是[Download cuDNN v5 (M*** 27, 2016), for CUDA 8.0 RC],点开选linux,不出意外的话这个就是下载地址.

2 确认GCC版本,安装依赖库

确认本机gcc版本,16.04默认的是gcc 5,这里安装需要的***是gcc 4.9。接下来就安装配置gcc 4.9.

2.1 安装gcc 4.9,并修改系统默认为4.9

sudo apt-get install gcc-4.9 gcc-4.9 g++-4.9 g++-4.9

gcc --version

sudo update-alternatives --install /usr/bin/g++ g++ /usr/bin/g++-4.9 10

sudo update-alternatives --install /usr/bin/cc cc /usr/bin/gcc 30

sudo update-alternatives --set cc /usr/bin/gcc

sudo update-alternatives --install /usr/bin/c++ c++ /usr/bin/g++ 30

sudo update-alternatives --set c++ /usr/bin/g++

gcc --version

2.2 一个小依赖

sudo apt-get install freegl

3 安装CUDA

需要注意的是这个地方有个选择安装低版本驱动的地方,选n 大致的安装流程如下:

3.1 安装CUDA

chmod  +x /cuda_8.0.27_linux.run

./cuda_8.0.27_linux.run

....

Do you accept the previously read EULA?

accept/decline/quit: accept

Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 361.62?

(y)es/(n)o/(q)uit: n

Install the CUDA 8.0 Toolkit?

(y)es/(n)o/(q)uit: y

Enter Toolkit Location

[ def***lt is /usr/local/cuda-8.0 ]:

Do you want to install a symbolic link at /usr/local/cuda?

(y)es/(n)o/(q)uit: y

Install the CUDA 8.0 Samples?

(y)es/(n)o/(q)uit: y

Enter CUDA Samples Location

[ def***lt is /home/h ]: /home/h/documents/cuda_samples

....

3.2 写入环境变量

vim ~/.bashrc

#添加下面变量

export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}

export LD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}

3.3 安装好后简单验证

a. 进入刚配置时指定的cuda sample所在文件夹,NVIDIA_CUDA-8.0_Samples/

b. cd 0_Simple/asyncAPI;sudo make

c. NVIDIA_CUDA-8.0_Samples/0_Simple/asyncAPI$ ./asyncAPI [./asyncAPI] - Starting… GPU Device 0: “GeForce GTX 1080” with compute capability 6.1 CUDA device [GeForce GTX 1080] time spent executing by the GPU: 10.94 time spent by CPU in CUDA calls: 0.19 CPU executed 50591 iterations while waiting for GPU to finish

4 安装cuDNN

h@h:~/Downloads$ tar xvzf cudnn-8.0-linux-x64-v5.0-ga.tgz

cuda/include/cudnn.h

cuda/lib64/libcudnn.so

cuda/lib64/libcudnn.so.5

cuda/lib64/libcudnn.so.5.0.5

cuda/lib64/libcudnn_static.a

h@h:~/Downloads$ sudo cp -R cuda/lib64 /usr/local/cuda/lib64

h@h:~/Downloads$ sudo mkdir -p /usr/local/cuda/include

h@h:~/Downloads/cuda$ sudo cp include/cudnn.h /usr/local/cuda/include/

sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*

5 clone, configure tensorflow

5.1 clone源码

$ git clone

5.2 configure配置

整个配置流程应该跟下面的基本一样的

h@h:~/Downloads/tensorflow$ cd ./tensorflow/

h@h:~/Downloads/tensorflow$ ./configure

Please specify the location of python. [Def***lt is /usr/bin/python]:

***Do you wish to build TensorFlow with Google Cloud Platform support? [y/N] N***

No Google Cloud Platform support will be enabled for TensorFlow

***Do you wish to build TensorFlow with GPU support? [y/N] y***

GPU support will be enabled for TensorFlow

Please specify which gcc nvcc should use as the host compiler. [Def***lt is /usr/bin/gcc]:

**Please specify the location where CUDA  toolkit is installed. Refer to README.md for more details. [Def***lt is /usr/local/cuda]: /usr/local/cuda-8.0 **

**Please specify the Cudnn version you want to use. [Leave empty to use system def***lt]: 5.0.5**

**Please specify the location where cuDNN 5.0.5 library is installed. Refer to README.md for more details. [Def***lt is /usr/local/cuda-8.0]: /usr/local/cuda**

Please specify a list of comma-separated Cuda compute capabilities you want to build with.

You can find the compute capability of your device at: .

**Please note that each additional compute capability significantly increases your build time and binary size.

[Def***lt is: "3.5,5.2"]: 6.1**

Setting up Cuda include

Setting up Cuda lib64

Setting up Cuda bin

Setting up Cuda nvvm

Setting up CUPTI include

Setting up CUPTI lib64

Configuration finished

6 编译安装

6.1 编译工具Bazel安装配置 

先看一眼文档 然后就执行下面的流程:

#安装java 1.8

sudo add-apt-repository ppa:webupd8team/java

sudo apt-get update

sudo apt-get install oracle-java8-installer

#安装好后车参考下

java -version

#添加源

echo "deb [arch=amd64] stable jdk1.8" | sudo tee /etc/apt/sources.list.d/bazel.list

curl | sudo apt-key add -

#下载

sudo apt-get update sudo apt-get install bazel

#升级

sudo apt-get upgrade bazel

6.2 编译tensorflow的pip版本并安装

$ bazel build -c opt //tensorflow/tools/pip_package:build_pip_package

# To build with GPU support:

$ bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package

$ bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/tensorflow_pkg

# The name of the .whl file will depend on your platform.

#注意编译完成后生成的文件名字和官方doc里面的是不一定一致的

$ sudo pip install /tmp/tensorflow_pkg/tensorflow-0.*-linux_x86_64.whl

i6700k 32g编译时间:

只编译代码不带pip INFO: Elapsed time: 967.271s, Critical Path: 538.38s

bazel-bin/tensorflow/tools/pip_package/build_pip_package INFO: Elapsed time: 65.183s, Critical Path: 48.58

7 最后测试

前面都整完了,现在该测试了,注意前面有两个动态链接库的位置,cuDNN在/usr/local/cuda/lib64, 而cuda在/usr/local/cuda-8.0/lib64,所以这个时候的bashrc应该这么写:

export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}

export LD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}

写完后,

source ~/.bashrc

cd tensorflow/tensorflow/models/image/mnist

python convolutional.py

成功的话会出现流畅的跑动:

h@h:~/Downloads/tensorflow/tensorflow/models/image/mnist$ python convolutional.py

I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcublas.so locally

I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcudnn.so.5.0.5 locally

I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcufft.so locally

I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcuda.so.1 locally

I tensorflow/stream_executor/dso_loader.cc:108] successfully opened CUDA library libcurand.so locally

Extracting data/train-images-idx3-ubyte.gz

Extracting data/train-labels-idx1-ubyte.gz

Extracting data/t10k-images-idx3-ubyte.gz

Extracting data/t10k-labels-idx1-ubyte.gz

I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:925] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero

I tensorflow/core/common_runtime/gpu/gpu_init.cc:102] Found device 0 with properties:

name: GeForce GTX 1080

major: 6 minor: 1 memoryClockRate (GHz) 1.8475

pciBusID 0000:01:00.0

Total memory: 7.92GiB

Free memory: 7.41GiB

I tensorflow/core/common_runtime/gpu/gpu_init.cc:126] DMA: 0

I tensorflow/core/common_runtime/gpu/gpu_init.cc:136] 0:   Y

I tensorflow/core/common_runtime/gpu/gpu_device.cc:838] Creating TensorFlow device (/gpu:0) - (device: 0, name: GeForce GTX 1080, pci bus id: 0000:01:00.0)

Initialized!

Step 0 (epoch 0.00), 8.4 ms

Minibatch loss: 12.054, learning rate: 0.010000

Minibatch error: 90.6%

Validation error: 84.6%

......

Minibatch error: 0.0%

Validation error: 0.7%

Step 8500 (epoch 9.89), 4.7 ms

Minibatch loss: 1.601, learning rate: 0.006302

Minibatch error: 0.0%

Validation error: 0.9%

Test error: 0.8%

windows怎么装cudnn

安装cudnn前,得确保正确安装好cuda

首先到官网下载cudnn:Nvidia官网cudnn 选择下载版本时要注意和Cuda版本匹配(这里下载的是cudnn-for-cuda-8.0-windows7-x64-v5.1)。下载下来的是一个压缩包,解压后有3个文件夹:

将这些文件夹覆盖至CUDA的安装目录下

例如:C:Program FilesNVIDIA GPU Computing ToolkitCUDAv8.0

即可完成安装。

关于cudnn下载和cudnn下载很慢的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

发表评论
0评