基于改进VGG16的猴子图像分类方法
《信息技术与网络安全》2020年第5期
田佳鹭,邓立国
摘要: 为提高对细粒度图像分类的准确性和分类速度,提出基于改进VGG16和迁移学习的图像分类方法。首先从kaggle平台中获取十种不同猴子数据集,并对数据集进行标准化处理,包含图片去椒盐噪声、将数据集转换为TensorFlow中提供的统一TFRecord数据格式。然后迁移学习改进的VGG16卷积神经网络,模型的优化包括利用Swish作为激活函数、将softmax loss与center loss相结合作为损失函数以实现更好的聚类效果、采用性能完善的Adam优化器。用训练集训练模型以确定微调参数信息,再用测试集检验模型准确性。结果表明,该方法对猴子图像分类的准确度可达到98.875%,分类速度也得到了显著提升。与其他传统卷积神经网络模型相比,该方法具有更高的准确性和适用性。
中圖分類號:TP391.41;TP18 文獻標識碼:A DOI: 10.19358/j.issn.2096-5133.2020.05.002
引用格式:田佳鷺,鄧立國.基于改進VGG16的猴子圖像分類方法[J].信息技術與網絡安全,2020,39(5):6-11.
引用格式:田佳鷺,鄧立國.基于改進VGG16的猴子圖像分類方法[J].信息技術與網絡安全,2020,39(5):6-11.
Abstract:
Key words :
隨著深度學習技術的不斷進步,對于通用對象的類別分析,卷積神經網絡已經達到了很高的水平,但對于細粒度圖像分類的穩(wěn)定性目前還有待提升。所謂細粒度圖像分類,通常用于描述對同一類事物進行細致的劃分,所以待分類圖像的區(qū)別要更加精準,類內區(qū)別大而類間區(qū)別小,粒度則更為精細。本文方法基于改進的VGG16深度卷積神經網絡。盡管原始的VGG16模型已經擁有了良好的普適性和實用價值,并且在各種圖像分類和目標檢測任務中都體現(xiàn)了極佳的效果,通過遷移學習改進的VGG16模型,能夠將已習得的特征和性能應用到待解決的問題中,極大地節(jié)省了訓練時間。此外在硬件上選取GPU進行訓練,使得速度得到進一步提升。為了改善原始的交叉熵損失函數(shù)無法保證提取的特征具有識別度的缺點,在VGG16模型中引入將center loss損失函數(shù)與交叉熵損失函數(shù)相結合的辦法。此外還運用了新型的Swish激活函數(shù),以及擁有自適應學習率的Adam優(yōu)化器。最后利用不同種類的猴子訓練集對改進的模型重新訓練,以獲得少量微調的參數(shù)信息。經驗證該方法對猴子圖像識別的精準度可提升到98.875%,而原始的VGG16模型在該數(shù)據(jù)集上的分類僅能達到90.210%的準確率,可以證明改進后的模型具有更好的識別效果。
本文詳細內容請下載:http://www.ihrv.cn/resource/share/2000003088
作者信息:田佳鷺,鄧立國(沈陽師范大學 數(shù)學與系統(tǒng)科學學院,遼寧 沈陽 110034)
此內容為AET網站原創(chuàng),未經授權禁止轉載。
