ƯỚC LƯỢNG TỐC ĐỘ LUỒNG GIAO THÔNG TRÊN VIDEO GIAO THÔNG SỬ DỤNG YOLOV8 VÀ BYTETRACK | Phương | TNU Journal of Science and Technology

ƯỚC LƯỢNG TỐC ĐỘ LUỒNG GIAO THÔNG TRÊN VIDEO GIAO THÔNG SỬ DỤNG YOLOV8 VÀ BYTETRACK

Thông tin bài báo

Ngày nhận bài: 17/01/24                Ngày hoàn thiện: 28/03/24                Ngày đăng: 29/03/24

Các tác giả

1. Vũ Lê Quỳnh Phương Email to author, Trường Cao đẳng Sư phạm Kiên Giang
2. Phạm Nguyên Khang, Trường Đại học Cần Thơ
3. Trần Nguyễn Minh Thư, Trường Đại học Cần Thơ

Tóm tắt


Lưu lượng giao thông là một lĩnh vực quan trọng trong sự phát triển của kinh tế, xã hội và môi trường. Để đánh giá lưu lượng giao thông, việc ước lượng tốc độ luồng giao thông là quan trọng. Trong bài nghiên cứu này, chúng tôi đề xuất một mô hình ước lượng tốc độ luồng giao thông dựa trên dữ liệu thu thập từ các camera giám sát giao thông. Mục tiêu chính là đếm và theo dõi các phương tiện để ước lượng lưu lượng giao thông bằng cách kết hợp mô hình Yolov8 và ByteTrack, sau đó tính toán tốc độ trung bình của các phương tiện. Để huấn luyện và đánh giá hiệu suất của mô hình, dữ liệu thu thập từ Công an phường Vĩnh Thanh Vân – Thành phố Rạch Giá, bao gồm 10 092 ảnh và hơn 96 024 đối tượng được gán nhãn trong nhiều điều kiện khác nhau được sử dụng. Trong nghiên cứu đã thử nghiệm và so sánh hiệu suất của mô hình của mình với các mô hình kết hợp Yolov8 và DeepSort. Kết quả thực nghiệm cho thấy rằng mô hình đề xuất có thời gian thực thi thấp nhất và có khả năng ước lượng lưu lượng giao thông gần với thực tế, với độ chính xác là 91,39%.  Bộ dữ liệu sử dụng trong nghiên cứu này có thể được nghiên cứu sử dụng như một tập kiểm thử đối với các bài toán tương tự.

Từ khóa


Tốc độ luồng giao thông; YOLOv8; ByteTrack; Nhận dạng đối tượng; Theo dõi đối tượng

Toàn văn:

PDF

Tài liệu tham khảo


[1] A. Fedorov, K. Nikolskaia, S. Ivanov, V. Shepelev, and A. Minbaleev, "Traffic flow estimation with data from a video surveillance camera," Journal of Big Data, vol. 6, pp. 1-15, 2019.

[2] M. M. Rahman and N. Nower, “Attention based Deep Hybrid Networks for Traffic Flow Prediction using Google Maps Data,” in Proceedings of the 2023 8th International Conference on Machine Learning Technologies, 2023, pp. 74-81.

[3] L. Q. P. Vu, N. T. Bui, K. H. Nguyen, N. M. T. Tran, and N. K. Pham, “Estimating the traffic density from traffic cameras,” in Future Data and Security Engineering. Big Data, Security and Privacy, Smart City and Industry 4.0 Applications, Springer, 2021, pp. 248-263.

[4] T. Abirami, C. Nivas, R. Naveen, and G. Nithishkumar, "Deep Learning based Traffic Analysis of Motor Cycles in Urban City," in 2022 6th International Conference on Intelligent Computing and Control Systems (ICICCS), 2022, pp. 1304-1309.

[5] F. Zhang, C. Li, and F. Yang, "Vehicle Detection in Urban Traffic Surveillance Images Based on Convolutional Neural Networks with Feature Concatenation," Sensors, vol. 19, pp. 549-570, 2019.

[6] T. Abirami, C. Nivas, R. Naveen, and T. G. Nithishkumar, “Deep Learning based Traffic Analysis of Motor Cycles in Urban City,” in 2022 6th International Conference on Intelligent Computing and Control Systems (ICICCS), IEEE, 2022, pp. 1304-1309.

[7] A. Vats and D. C. Anastasiu, “Enhancing Retail Checkout Through Video Inpainting, YOLOv8 Detection, and DeepSort Tracking,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023, pp. 5529-5536.

[8] Y. Zhang, P. Sun, Y. Jiang, D. Yu, F. Weng, Z. Yuan, and X. Wang, “Bytetrack: Multi-object tracking by associating every detection box,” in European Conference on Computer Vision, Cham: Springer Nature Switzerland, 2022, pp. 1-21.

[9] N. D. T. Yung, W. K. Wong, F. H. Juwono, and Z. A. Sim, “Safety helmet detection using deep learning: Implementation and comparative study using YOLOv5, YOLOv6, and YOLOv7,” in 2022 International Conference on Green Energy, Computing and Sustainable Technology (GECOST) IEEE, 2022, pp. 164-170.

[10] J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, "You only look once: unified, real-time object detection," in 2016 IEEE conference on computer vision and pattern recognition (CVPR), 2016, pp. 779-788.

[11] A. Bochkovskiy, C. Y. Wang, and H. Y. M. Liao, “Yolov4: Optimal speed and accuracy of object detection,” arXiv preprint arXiv:2004.10934, 2020.

[12] C. Y. Wang, A. Bochkovskiy, and H. Y. M. Liao, “YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023, pp. 7464-7475.

[13] Y. Du, Z. Zhao, Y. Song, Y. Zhao, F. Su, T. Gong, and H. Meng, “Strongsort: Make deepsort great again,” IEEE Transactions on Multimedi, vol. 25, pp. 8725-8737, 2023.




DOI: https://doi.org/10.34238/tnu-jst.9604

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved