MỘT GIẢI PHÁP TỰ ĐỘNG ĐỌC CHỈ SỐ ĐỒNG HỒ NƯỚC TỪ ẢNH ÁP DỤNG HỌC SÂU | Tích | TNU Journal of Science and Technology

MỘT GIẢI PHÁP TỰ ĐỘNG ĐỌC CHỈ SỐ ĐỒNG HỒ NƯỚC TỪ ẢNH ÁP DỤNG HỌC SÂU

Thông tin bài báo

Ngày nhận bài: 11/09/23                Ngày hoàn thiện: 06/11/23                Ngày đăng: 06/11/23

Các tác giả

1. Phạm Xuân Tích Email to author, Trường Đại học Giao thông vận tải
2. Nguyễn Đình Dương, Trường Đại học Giao thông vận tải

Tóm tắt


Trong bài báo này, chúng tôi đề xuất một phương pháp tự động đọc chỉ số đồng hồ (AMR) áp dụng cho đồng hồ đo nước bằng cách áp dụng học sâu. Chúng tôi thiết kế một phương pháp hai giai đoạn sử dụng mạng nơ ron tích chập vùng quay (Rotational Region Convolutional Neural Networks - R2CNN). Giai đoạn thứ nhất sử dụng một mạng R2CNN để phát hiện vùng chứa chỉ số; giai đoạn thứ 2 áp dụng một mạng R2CNN khác để nhận dạng các chữ số trên ảnh chỉ có vùng chỉ số. Các chữ số sau khi nhận dạng được xử lý và sắp xếp để thu được chỉ số của đồng hồ. Trong các nghiên cứu về AMR, hầu hết các bộ dữ liệu đều không có sẵn cho cộng đồng nghiên cứu vì hình ảnh thuộc về các công ty dịch vụ. Do đó, trong nghiên cứu này, chúng tôi đã tạo ra một tập dữ liệu mới cho phương pháp đề xuất sử dụng nó để huấn luyện và thử nghiệm. Kết quả thu được một quy trình với các mô hình học sâu xác định chỉ số của đồng hồ đo nước từ ảnh chụp ảnh mặt đồng hồ với độ chính xác cao và quy trình này đã được tích hợp vào phần mềm Citywork bước đầu giúp các nhà quản lý kiểm toán tính chính xác của chỉ số do nhân viên ghi chỉ số đồng hồ theo phương pháp thủ công có đúng với chỉ số trong ảnh chụp của nó không.

Từ khóa


Đọc đồng hồ tự động; Học sâu; Mạng nơ ron tích chập; Mạng nơ ron hồi quy; Vùng quay

Toàn văn:

PDF

Tài liệu tham khảo


[1] L. Neumann and J. Matas, “Real-time scene text localization and recognition,” In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2012, pp. 3538–3545.

[2] M. Jaderberg, K. Simonyan, A. Vedaldi, and A. Zisserman, “Synthetic data and artificial neural networks for natural scene text recognition,” Computer Science, June 2014, doi: 10.48550/arXiv.1406.2227.

[3] Wang, T., Wu, D.J., Coates, A. and Ng, A.Y. “End-to-end text recognition with convolutional neural networks,” 21st International Conference on Pattern Recognition (ICPR), 2012, pp. 3304–3308.

[4] A. Bissacco, M. Cummins, Y. Netzer, and H. Neven, “Photoocr: Reading text in uncontrolled conditions,” Proceedings of the IEEE International Conference on Computer Vision, 2013, pp. 785–792.

[5] T. D. Le, D. T. Nguyen, and Q. B. Truong, “Identification of some types of longan (through leaves) using image and deep learning technology,” TNU Journal of Science and Technology, vol. 228, no. 02, pp. 128 – 135, 2023.

[6] Q. T. Nguyen, Q. U. Nguyen, K. P. Phung, M. T. Nguyen, and M. S. Nguyen, “Detecting and measuring environmental desasters based on image segmentation deep learning technique,” TNU Journal of Science and Technology, vol. 227, no. 16, pp. 140 – 148, 2022.

[7] B. Shi, X. Bai, and C. Yao, “An end-to-end trainable neural network for image-based sequence recognition and its application to scene text recognition,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, pp. 2298-2304, Nov. 2017.

[8] C.-Y. Lee and S. Osindero “Recursive Recurrent Nets with Attention Modeling for OCR in the Wild,” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016, pp. 2231–2239.

[9] R. Laroca, V. Barroso, M. A. Diniz, G. R. Gonc¸alves, W. R. Schwartz, and D. Menotti “Convolutional Neural Networks for Automatic Meter Reading,” Journal of Electronic Imaging, vol. 28, no. 01, pp. 1-14, 2019, doi: 10.1117/1.JEI.28.1.013023.

[10] M. L. W. Concio, F. S. Bernardo, J. M. Opulencia, G. L. Ortiz, and J. R. I. Pedrasa "Automated Water Meter Reading Through Image Recognition," TENCON 2022 - 2022 IEEE Region 10 Conference (TENCON), 01-04 November 2022, doi: 10.1109/TENCON55691.2022.9977678.

[11] Y. Liang, Y. Liao, S. Li, W. Wu, T. Qiu, and W. Zhang "Research on water meter reading recognition based on deep learning," Scientific Reports, vol. 12, 2022, Art. no. 12861, doi: 10.1038/s41598-022-17255-3.

[12] Y. Jiang, X. Zhu, X. Wang, S. Yang, W. Li, H. Wang, P. Fu, and Z. Luo, “R2CNN: Rotational Region CNN for Orientation Robust Scene Text Detection,” Computer Science, June 2017, doi: 10.48550/arXiv.1706.09579.

[13] S. Ren, K. He, R. Girshick, and J. Sun, “Faster R-CNN: Towards real-time object detection with region proposal networks,” Advances in Neural Information Processing Systems, vol. 28, 2015, doi: 10.48550/arXiv.1506.01497.

[14] R. Girshick, J. Donahue, T. Darrell, and J. Malik. “Rich feature hierarchies for accurate object detection and semantic segmentation,” IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014, doi: 10.48550/arXiv.1311.2524.




DOI: https://doi.org/10.34238/tnu-jst.8741

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved