PHÂN LOẠI CHỮ SỐ CHO CÁC CAMERA NHẬN DIỆN BIỂN SỐ GIAO THÔNG TẠI VIỆT NAM
Thông tin bài báo
Ngày nhận bài: 18/05/20                Ngày hoàn thiện: 28/05/20                Ngày đăng: 31/05/20Tóm tắt
Nhận dạng ký tự là một bài toán nghiên cứu quan trọng và được áp dụng trong nhiều bài toán thực tế, trong đó có bài toán nhận dạng các biển số xe cho các camera giám sát giao thông. Các bài toán nhận dạng thường xây dựng một mô hình phân loại cho tất cả các lớp. Tuy nhiên, độ khó để phân loại các lớp ký tự là không đồng đều, một số ký tự dễ bị phân loại nhầm hơn các kí tự khác. Việc xây dựng một mô hình phân loại duy nhất cho tất cả các lớp ký tự dẫn đến việc dự đoán các lớp ký tự có độ chính xác rất khác nhau. Trong bài báo này, chúng tôi trình bày một phương pháp giúp cải thiện độ chính xác trong việc nhận dạng các kí tự khó bằng cách xây dựng một bộ phân loại 2 lớp. Trong đó, bộ phân loại thứ nhất được áp dụng cho tất cả các loại ký tự, bộ phân loại thứ 2 có tác dụng phân loại lại các ký tự khó, nhằm sửa lại những lỗi phân loại của bộ phân loại thứ nhất. Thực nghiệm trên 2 tập dữ liệu SHVN và tập dữ liệu các chữ số trích xuất từ camera nhận dạng biển số tại Việt Nam cho thấy phương pháp được đề xuất giúp cải thiện độ chính xác của 1 số ký tự đến 1,4%.
Từ khóa
Toàn văn:
PDFTài liệu tham khảo
[1]. C. Yao, X. Bai, B. Shi, and W. Liu, “Strokelets: A learned multi-scale representation for scene text recognition,” In Proceedings of the IEEE Conference on Computer Vision and PatternRecognition (CVPR), 2014, pp. 4042-4049.
[2]. M. Buta, L. Neumann and J. Matas, "FASText: Efficient Unconstrained Scene Text Detector," 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, 2015, pp. 1206-1214, doi: 10.1109/ICCV.2015.143.
[3]. T. Q. Phan, P. Shivakumara, S. Tian, and C. L. Tan, “Recognizing text with perspective distortion in natural scenes,” In Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2013, pp. 569-576.
[4]. A. Krizhevsky, I. Sutskever, and G Hinton, “ImageNet Classification with Deep Convolutional Neural Networks,” In Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1 (NIPS), 2012.
[5]. A. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, M. Andreetto, and H. Adam, MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications, 2017. [Online]. Available: http://arxiv.org/abs/1704.04861 [Accessed May 12, 2018].
[6]. D. Ho, E. Liang, I. Stoica, P. Abbeel, and X. Chen, Population Based Augmentation: Efficient Learning of Augmentation Policy Schedules, 2019, [Online]. Available: https://arxiv.org/abs/1905.05393 [Accessed May 12, 2019].
[7]. M. Galar, A. Fernández, E. Barrenechea, H. Bustince, and F. Herrera, “A review on ensembles for the class imbalance problem: bagging-, boosting-, and hybrid-based approaches,” IEEE Trans. Syst., Man, Cybernet., Part C: Appl. Rev., vol. 42, no. 4, pp. 463-484, 2012.
[8]. Freund, and R. E. Schapire, “A decision-theoretic generalization ofon-line learning and an application to boosting,” J. Comput. Syst. Sci., vol. 55, no. 1, pp. 119-139, 1997.
[9]. L. Rokach, “Ensemble-based classifiers,”Artif. Intell. Rev., vol. 33, pp. 1-39, 2010.
[10]. Y. Netzer, T. Wang, A. Coates, A. Bissacco, B. Wu, and Y. Andrew, “Reading Digits in Natural Images with Unsupervised Feature Learning NIPS,” Workshop on Deep Learning and Unsupervised Feature Learning, 2011.
Các bài báo tham chiếu
- Hiện tại không có bài báo tham chiếu





