keras cpu,keras调用gpu
对于刚入坑的机器学习,算法(回归,决策树等。)和使用的例子都比较简单,一般的CPU(中央处理器)有足够的计算能力,所以可以很快实现。然而,当使用keras(基于深度学习框架的高级APP接口)进行深度学习时,如果用庞大的数据对神经网络中的数百万个参数进行反复训练,CPU很难操作。
为什么深度学习中GPU比CPU快?这是因为两者的设计不同。CPU由几个为串行处理优化的部件组成,有少量的算术逻辑单元,主要用于管理和协调不同的任务;另一方面,GPU具有由数千个算术逻辑单元组成的并行计算架构,是专门为繁重的计算任务而设计的。
简单来说,如果要对一组数据重复执行相同的计算任务,GPU更合适;如果要对一组数据执行多个不同的任务,CPU更合适。
根据渣的实际经验,用2万个样本的gtx970(cuda1600)训练的嵌入式神经网络比A10处理器快20-30倍,具体取决于batchsize的大小。
安装CUDA和cuDNN
GPU是NVIDIA在2007年首次推出的。统一计算设备架构(CUDA)是一种允许GPU解决复杂计算问题的并行架构,包括CUDA指令集和并行计算引擎。目前这种架构适用于GeForce、ION、Quadro、Tesla等产品。与AMD相比,支持GPU加速的NVIDIA显卡种类繁多。
所以如果想用GPU加速,基本上只需要确认显卡是不是NVIDIA品牌就可以了。当然,如果型号太老,但还不清楚,可以去官网调查(https://developer。NVIDIA . com/cuda-GPU)。该列表还可以帮助您了解您所拥有的显卡的计算能力。下图只有一部分。
在下载CUDA之前,你必须先验证你的显卡支持的CUDA版本。这可以从NVIDA控制面板的系统信息中得到证实。如果找不到NVIDA控制程序,请更新显卡驱动。最新的常规驱动支持新的CUDA版本。(目前TensorFlow-GPU-1.14只支持CUDA10.0,这个渣表示安装10.1后找不到cudart64_100.dll。请忽略后面文本中的具体版本号。)
双击下载的可执行程序(cuda_10.0.130_411.31_win10.exe)进入安装向导,解压(临时文件可以任意保留,自动删除)。有两种安装方式:“紧凑”(实际上是完整安装,请参考英文注释“install all”)和“自定义”。这里建议使用“自定义”,因为已经安装了一些组件(比如驱动),版本可能太高,无法覆盖。
如图所示,可以在CUDA列表中选择四个组件:开发、运行时、文档和示例,然后根据需要安装其他组件。(这个渣在安装Nsight的两个组件时遇到了重启错误。原因可能是没有关闭限制状态)。
请记住安装位置,然后单击“下一步”,直到显示“安装完成”。
接下来下载cuDNN。这就是所谓的nvidiacudadee网络库。NVIDIA专门设计了基于GPU的加速器库,用于深度神经网络中的基本操作。
您需要登录您的帐户。注册过程相对简单,只需要一个操作就可以完成注册。(门户网站:https://developer.NVIDIA.com/RDP/CuDNN-下载)。登录后,选择并下载CUDA版本和操作系统对应的cuDNN,将下载的文件解压,放入CUDA安装目录中版本号对应的文件夹中。(c:\ program files \ nvidiagpucomputingtoolkit \ cuda \ v 10.0)
最后,设置相应的环境变量。如果右击我的电脑属性的高级系统设置环境变量,说明已经设置了CUDA_PATH、CUDA_PATH_V10_1、NVCUDASAMPLES _ ROOT和nvcudasamples 10。
必须添加以下环境变量:
cuda _ SDK _ path:c:\ program data \ NVIDIA公司\cuda samples\v 10.1
cuda _ lib _ path:% cuda _ path % \ lib \ x64
cuda _ Zr dhb _ path:% cuda _ path % \ jmd dy
cuda _ SDK _ Zr dhb _ path:% cuda _ SDK _ path % \ jmd dy \ win 64
cuda _ SDK _ lib _ path:% cuda _ SDK _ path % \ common \ lib \ x64
并添加到PATH系统变量中:
%CUDA_LIB_PATH%
%CUDA_zrdhb_PATH%
%CUDA_SDK_LIB_P
ATH%
% CUDA _ SDK _ zrdhb _ PATH %
C:\ProgramFiles\NVIDIA GPU计算工具包\CUDA\v10.1\lib\x64
C:\ProgramFiles\NVIDIA GPU计算工具包\CUDA\v10.1\jmddy
c:\ program data \ NVIDIA corporation \ CUDA Samples \ v 10.1 \ common \ lib \ x64
c:\ program data \ NVIDIA corporation \ CUDA Samples \ v 10.1 \ jmddy \ win 64
配置完成后,我们可以用CUDA内置的两个程序来验证配置是否生效。启动cmd,cd到安装目录.CUDA\v10.1\extras\demo_suite,分别执行bandwidthTest.exe和deviceQuery.exe。如果如图所示,它们都返回到PASS,则配置生效。
2.创建虚拟环境
虚拟环境可以理解为一个特定项目的独立开发和运行环境。不同的虚拟环境可以有自己不同的依赖项和工具包,互不影响。根据项目的需要,同一个工具包在不同的虚拟环境中可以有不同的版本。
使用 conda createn虚拟环境名称python=版本号anaconda (如果在命令末尾不输入anaconda,环境中只会安装python,不会有其他工具包)。过了一会儿,询问您是否要继续,键入y并回车,将出现“done ”,表示创建完成。使用“conda activate virtual environment name”激活(退出环境时停用),如果要删除环境,请使用“conda remove-n virtual environment name-all”。
使用“conda info -envs”查看所有当前虚拟环境及其位置。
3.安装TensorFlow_GPU版本
Keras使用tensorflow(Google开发的深度学习框架)作为后端操作,所以本质上需要GPU来执行tensor flow的计算,为此有一个基于GPU的特殊版本。激活要安装的虚拟环境,使用‘pip install-upgrade tensor flow-GPU’下载安装。
可能会有太低版本的依赖关系。请使用“pip安装-升级套件名称”逐个升级。
安装后,键入以下命令并运行:
将张量流作为tf导入
hello=tf.constant(hello!)
sess=tf。会话()
print(sess.run(hello))
如果能运行成功,出现显卡设备信息,就实现了GPU调用。
最后,Keras的安装非常简单,只需‘pip install Keras’即可。
好了,一切准备就绪,试着让模型飞起来!
参考:
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。