GIẢI PHÁP THEO DÕI ROBOT DI ĐỘNG HOẠT ĐỘNG TRONG NHÀ BẰNG CAMERA TRẦN SỬ DỤNG MẠNG HỌC SÂU YOLOv9 | Hiếu | TNU Journal of Science and Technology

GIẢI PHÁP THEO DÕI ROBOT DI ĐỘNG HOẠT ĐỘNG TRONG NHÀ BẰNG CAMERA TRẦN SỬ DỤNG MẠNG HỌC SÂU YOLOv9

Thông tin bài báo

Ngày nhận bài: 11/09/24                Ngày hoàn thiện: 29/10/24                Ngày đăng: 30/10/24

Các tác giả

1. Lưu Trọng Hiếu Email to author, Trường Bách khoa - Trường Đại học Cần Thơ
2. Nguyễn Tấn Dũng, Trường Bách khoa - Trường Đại học Cần Thơ

Tóm tắt


Nghiên cứu này trình bày một giải pháp xác định vị trí của robot di động trong môi trường trong nhà bằng một máy ảnh trần sử dụng mạng học sâu YOLOv9. Những giải pháp cổ điển, robot di động được gắn một thẻ qr-code, tuy nhiên thẻ thường có kích thước nhỏ, dễ bị nhiễu và bị ảnh hưởng bởi độ sáng. Vì vậy, nhóm nghiên cứu để xuất giải pháp sử dụng một mạng học sâu YOLOv9 để theo dõi quá trình di chuyển ngẫu nhiên của robot. Thêm vào đó, trạng thái của robot khi di chuyển trong mê cung được biểu diễn bằng phương pháp dòng quang học. Nhóm cũng đề xuất một giải pháp biến đổi hệ tọa độ từ hệ tọa độ máy ảnh sang hệ tọa độ Descartes để có thể xác định được vị trí hiện tại của robot di động. Kết quả cho thấy giải pháp đề xuất có thể ghi lại toàn bộ quỹ đạo di chuyển của robot trong mê cung. Trong thời điểm tức thời, phương pháp dòng quang học cũng cho thấy được trạng thái của robot khi chuyển động thẳng, xoay và gần chướng ngại vật. Kết quả này là tiền đề để giải quyết các toán nâng cao trong robot di động như lập và theo dõi quỹ đạo trong môi trường trong nhà.

Từ khóa


Robot di động; Mạng học sâu YOLOv9; Phát hiện và theo dõi đối tượng; Hệ tọa độ Casterian; Dòng quang học

Toàn văn:

PDF

Tài liệu tham khảo


[1] E. A. Banu, S. Chidambaranathan, N. N. Jose, P. Kadiri, R. E. Abed, and A. Al-Hilali, "A System to Track the Behaviour or Pattern of Mobile Robot Through RNN Technique," 2024 4th International Conference on Advance Computing and Innovative Technologies in Engineering (ICACITE), Greater Noida, India, 2024, pp. 2003-2005, doi: 10.1109/ICACITE60783.2024.10617430.

[2] A. Khan, S. Aziz, M. Bashir, and M. U. Khan, "IoT and Wireless Sensor Network based Autonomous Farming Robot," 2020 International Conference on Emerging Trends in Smart Technologies (ICETST), Karachi, Pakistan, 2020, pp. 1-5, doi: 10.1109/ICETST49965.2020.9080736.

[3] Zh. Liping, L. C. Chew, C. Yiping, and K. H. Reza, “Tracking Mobile Robot in Indoor Wireless Sensor Networks,” Mathematical Problems in Engineering, vol. 5, pp. 1-8, 2014, doi: 10.1155/2014/837050.

[4] B. S. Choi, J. M. Yun, and J. M. Lee, "An Efficient Localization Scheme for an Indoor Mobile Robot," SICE Annual Conference, August 8-10, 2005, pp. 5945-5950.

[5] B. S. Choi, and J. W. Lee, “A Hierarchical Algorithm for Indoor Mobile Robot Localization Using RFID Sensor Fusion,” IEEE Transactions on Industrial Electronics, vol. 58, no. 6, pp. 2226-2235, June 2011.

[6] S. Park and S. Hashimoto, "Autonomous Mobile Robot Navigation Using RFID in Indoor Environment," IEEE Transactions on industrial electronics, vol. 56, no. 7, pp. 2366-2373, June 2009.

[7] S. J. Lee, G. Tewolde, J. Lim, and J. Kwon, "QR-code based Localization for Indoor Mobile Robot with validation using a 3D optical tracking instrument," IEEE International Conference on Advanced Intelligent Mechatronics (AIM), 2015, pp. 965-970, doi: 10.1109/AIM.2015.7222664.

[8] R. Visvanathan et al., "Mobile robot localization system using multiple ceiling mounted cameras," 2015 IEEE SENSORS, Busan, Korea (South), 2015, pp. 1-4, doi: 10.1109/ICSENS.2015.7370454.

[9] K. N. Vladimirovich, Z. V. Nikolaevich, and U. N. Vladimirovna, "Robot visual navigation using ceiling images," 2020 13th International Conference on Developments in eSystems Engineering (DeSE), Liverpool, United Kingdom, 2020, pp. 140-145, doi: 10.1109/DeSE51703.2020.9450231.

[10] C. Iaboni, H. Patel, D. Lobo, J. -W. Choi, and P. Abichandani, "Event Camera Based Real-Time Detection and Tracking of Indoor Ground Robots," in IEEE Access, vol. 9, pp. 166588-166602, 2021, doi: 10.1109/ACCESS.2021.3133533.

[11] C. T. Le and D. D. Tran, “A simple path tracking control of two-wheeled mobile robot,” Journal of Science and Technology on Information and Communications, no. 3, pp. 75-80, 2023.

[12] Z. Zhang, "A flexible new technique for camera calibration," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1330-1334, Nov. 2000, doi: 10.1109/34.888718.

[13] C.Y. Wang, I.-H. Yeh, and H.-Y. M. Liao, “YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information,” arXiv. 2024, doi: 10.48550/arXiv.2402.13616.

[14] B. D. Lucas and T. Kanade, “An iterative image registration technique with an application to stereo vision,” Proceedings of Imaging Understanding Workshop, 1981, pp. 121-130.




DOI: https://doi.org/10.34238/tnu-jst.11101

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved