



- Công bố khoa học và công nghệ Việt Nam
Phùng Thị Thu Trang, Ma Thị Hồng Thu(1)
A LIGHTWEIGHT DEEP LEARNING MODEL FOR AGE AND GENDER IDENTITY PROBLEM USING THE CNN NETWORK
MỘT MÔ HÌNH DEEP LEARNING NHẸ CHO BÀI TOÁN NHẬN DẠNG TUỔI VÀ GIỚI TÍNH SỬ DỤNG MẠNG CNN
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
2019
07
Bài toán nhận dạng tuổi và giới tính đang thu hút được nhiều sự chú ý từ các nhà nghiên cứu đặc biệt là khi mạng xã hội và mạng truyền thông ngày càng phổ biến. Các phương pháp được công bố gần đây cho kết quả khá tốt về độ chính xác nhưng còn tỏ ra kém hiệu quả trong vấn đề nhận diện thời gian thực bởi vì các mô hình này được thiết kế quá phức tạp. Trong bài báo này, chúng tôi đề xuất một mô hình nhẹ mang tên lightweight CNN thực hiện song song 2 nhiệm vụ là phân lớp tuổi và giới tính. Về độ chính xác trong nhận diện tuổi thì lightweight CNN tốt hơn 5.1% so với mô hình tốt nhất đã được công bố gần đây. Về thời gian chạy và số lượng tham số được sử dụng thì lightweight CNN sử dụng ít hơn nhiều so với các mô hình khác trên bộ dữ liệu Adience, đáp ứng được yêu cầu về nhận dạng trong thời gian thực.
Age and gender identification problems are gaining a lot of attention f-rom researchers since social and multimedia networks are becoming more popular nowadays. Recently published methods have yielded quite good results in terms of accuracy but also proved ineffective in real-time identification because these models were designed too complicated. In this paper, we propose a lightweight model called lightweight CNN that performs parallel tasks of age and gender classification. In terms of accuracy in identifying age, lightweight CNN is 5.1% better than the best model recently published. About runtime and the number of parameters used, lightweight CNN uses much less than other models on the Adience dataset, meet the identification requirements in real time.
- [1] M. Duan, K. Li, C. Yang, and K. Li (2018), A hybrid deep learning cnn– elm for age and gender classification,Neurocomputing, Vol. 275, pp. 448–461
- [2] E. Eidinger, R. Enbar, and T. Hassner (2014), Age and gender estimation of unfiltered faces,IEEE Transactions on Information Forensics and Security, Vol. 9, No. 12, pp. 2170–2179
- [3] I. Ullah, M. Hussain, G. Muhammad, H. Aboalsamh, G. Bebis, and A. M. Mirza (2012), Gender recognition f-rom face images with local wld descriptor,in Systems, Signals and Image Processing (IWSSIP), 2012 19th International Conference on. IEEE, pp. 417–420
- [4] S. Baluja and H. A. Rowley (2007), Boosting sex identification performance,International Journal of computer vision, Vol. 71, No. 1, pp. 111–119
- [5] B. Moghaddam and M.-H. Yang (2002), Learning gender with support faces,IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 24, No. 5, pp. 707–711
- [6] M. J. Lyons, J. Budynek, A. Plante, and S. Akamatsu (2000), Classifying facial attributes using a 2-d gabor wavelet representation and discriminant analysis,Automatic Face and Gesture Recognition, Proceedings. Fourth IEEE International Conference on. IEEE, pp. 202–207
- [7] G. W. Cottrell and J. Metcalfe (1991), Empath: Face, emotion, and gender recognition using holons,In Advances in neural information processing systems, pp. 564–571
- [8] D. A. Reid, S. Samangooei, C. Chen, M. S. Nixon, and A. Ross (2013), Soft biometrics for surveillance: an overview”,in Handbook of statistics. Elsevier, Vol. 31, pp. 327–352
- [9] G. Levi and T. Hassner (2015), Age and gender classification using convolutional neural networks,In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 34–42
- [10] E. Eidinger, R. Enbar, and T. Hassner (2014), Age and gender estimation of unfiltered faces,IEEE Transactions on Information Forensics and Security, Vol. 9, No. 12, pp. 2170–2179
- [11] X. Zhuang, X. Zhou, M. Hasegawa-Johnson, and T. Huang (2008), Face age estimation using patchbased hidden markov model supervectors,In Pattern Recognition, 2008. ICPR 2008. 19th International Conference on. IEEE, pp. 1–4
- [12] S. Yan, M. Liu, and T. S. Huang (2008), Extracting age information f-rom local spatially flexible patches,in Acoustics, Speech and Signal Processing, ICASSP 2008. IEEE International Conference on, pp. 737–740
- [13] X. Geng, Z. H. Zhou, and K. Smith-Miles (2007), Automatic age estimation based on facial aging patterns,IEEE Transactions on pattern analysis and machine intelligence, Vol. 29, No. 12, pp. 2234–2240
- [14] N. Ramanathan and R. Chellappa (2006), Modeling age progression in young faces,In Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on, vol. 1. IEEE, pp. 387–394
- [15] Y. H. Kwon and da Vitoria Lobo (1994), Age classification f-rom facial images,1994 Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, June 1994, pp. 762–767
- [16] L. Zhu, K. Wang, L. Lin, and L. Zhang (2016), Learning a lightweight deep convolutional network for joint age and gender recognition,Pattern Recognition (ICPR), 2016 23rd International Conference on. IEEE, pp. 3282– 3287
- [17] S. Lapuschkin, A. Binder, K. R. Muller, and W. Samek (2017), Understanding ¨ and comparing deep neural networks for age and gender classification,The IEEE Conference on Computer Vision and Pattern Recognition, pp. 1629–1638
- [18] Y. Kim (2014), Convolutional neural networks for sentence classification,arXiv preprint arXiv, 1408.5882
- [19] He Kaiming et al (2016), Deep residual learning for image recognition,Proceedings of the IEEE conference on computer vision and pattern recognition
- [20] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich (2015), Going deeper with convolutions,Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1–9
- [21] M. D. Zeiler and R. Fergus (2014), Visualizing and understanding convolutional networks,European conference on computer vision. Springer, pp. 818- 833
- [22] A. Krizhevsky, I. Sutskever, and G. E. Hinton (2012), Imagenet classification with deep convolutional neural networks,Advances in neural information processing systems, pp. 1097-1105