基于keras的python实践,keras实现深度神经网络
本文主要介绍python神经网络使用Keras来保存和读取模型。有需要的朋友可以借鉴一下,希望能有所帮助。祝大家进步很大,早日升职加薪。
00-1010学习前言Keras中保存和阅读的重要函数1、model.save2和load_model的所有代码。
目录
当你开始一个项目的时候,有时候你会用别人训练出来的模型。这次要学会装。
学习前言
Keras中保存与读取的重要函数
Model.save用于保存模型。在保存模型之前,您应该首先使用pip install安装h5py模块。这个模块经常在Keras的模型保存和读取中使用,用来定义保存格式。
pip安装h5py
安装后,您可以使用以下功能保存模型。
model.save(。/model . HD F5’)
其中,model是训练好的模型,save函数传入的参数是保存的位置名称。
1、model.save
Load_model用于加载模型。
具体使用方式如下:
model=load_model(。/model . HD F5’)
其中,load_model函数传入的参数是保存模型的位置名称。/表示保存在当前目录中。
2、load_model
这是一个简单的手写识别的例子,之前已经解释了如何构建它。
Python神经网络学习使用Keras进行简单分类。最后,我添加了保存和读取模型的功能。
将numpy作为np导入
从keras.models导入顺序、加载模型、保存模型
来自喀拉斯。层层导入密实,激活#层#全连接
从keras.datasets导入mnist
从keras.utils导入np_utils
优化器导入RMSprop
#获取训练集
(X_train,Y_train),(X_test,Y_test)=mnist.load_data()
#首先标准化
X _ train=X _ train . shape(X _ train . shape[0],-1)/255
X _ test=X _ test . shape(X _ test . shape[0],-1)/255
# categorical _ crossentropy计算需要类别分类结果。
#也就是说,标签需要转换成二进制序列,如(nb_samples,nb_classes)
Y _ train=NP _ utils . to _ categorial(Y _ train,num_classes=10)
Y _ test=NP _ utils . to _ categorial(Y _ test,num_classes=10)
#建立一个模型
模型=顺序([
密集(32,input_dim=784),
激活(“relu”),
密集(10),
激活(“softmax”)
]
)
rmsprop=RMSprop(lr=0.001,rho=0.9,=1e-08,decay=0)
##编译
model.compile(loss= category _ cross entropy ,optimizer=rmsprop,metrics=[accuracy])
打印( \ n培训)
cost=model.fit(X_train,Y_train,nb_epoch=2,batch_size=100)
打印( \ n测试)
#测试
成本,准确性=模型.评估(X _测试,Y _测试)
打印(“精确度:”,精确度)
#保存模型
model.save(。/model . HD F5’)
#删除现有模型
德尔模型
打印(“模型已被删除”)
#再次加载模型
model=load_model(。/model . HD F5’)
#预测
成本,准确性=模型.评估(X _测试,Y _测试)
打印(“精确度:”,精确度)
实验结果如下:
纪元1/2
60000/60000[============================]-6s 104 us/step-loss : 0.4217-ACC : 0.8888
纪元2/2
60000/60000[============================]-6s 99us/step-loss : 0.2240-ACC : 0.9366
试验
10000/10000[==============================]-1s 149 us/步
精确度: 0.9419
模型已被删除
10000/10000[==============================]-1s 117 us/步
精确度: 0.9419
以上是使用Keras保存和读取python神经网络模型的详细内容。有关保存和阅读Keras模型的更多信息,请关注热门IT软件开发工作室的其他相关文章!
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。