MỘT CÁCH TIẾP CẬN MỚI SỬ DỤNG THỊ GIÁC MÁY TÍNH CHO VIỆC PHÁT HIỆN MÁY BAY KHÔNG NGƯỜI LÁI | Việt | TNU Journal of Science and Technology

MỘT CÁCH TIẾP CẬN MỚI SỬ DỤNG THỊ GIÁC MÁY TÍNH CHO VIỆC PHÁT HIỆN MÁY BAY KHÔNG NGƯỜI LÁI

Thông tin bài báo

Ngày nhận bài: 07/05/20                Ngày hoàn thiện: 23/05/20                Ngày đăng: 19/08/20

Các tác giả

Phạm Văn Việt Email to author, Trường Đại học Kỹ thuật Lê Quý Đôn

Tóm tắt


Ngày nay, một cá nhân hay tổ chức có thể dễ dàng có được một máy bay không người lái (drone) với mức ngân sách chấp nhận được. Với khả năng mang theo những vật liệu nổ, các camera và các vật phi pháp, các drone có thể trở thành các mối đe dọa về anh ninh đối với các tổ chức quân và dân sự. Phát hiện các drone xuất hiện trong các khu vực không được phép trở thành một bài toán cấp thiết. Bài báo này thực hiện các nghiên cứu thực nghiệm cho việc huấn luyện mạng nơ-ron tích chập nhiều tầng Faster R-CNN để Faster-CNN sau khi huấn luyện có thể phát hiện chính xác nhất các drone trong ảnh. Faster R-CNN sau khi huấn luyện có thể sử dụng trong các hệ thống phát hiện, cảnh báo và phòng thủ drone cho các khu vực nhạy cảm. Mạng Faster R-CNN được huấn luyện sử dụng tập dữ liệu ảnh với các hộp giới hạn gán nhãn drone và các lựa chọn huấn luyện khác nhau. Với các lựa chọn huấn luyện hợp lý được xác định thông qua các thực nghiệm, Faster R-CNN sau khi huấn luyện có thể phát hiện drone với độ chính xác trung bình lên tới 0,774, cao hơn 83% so với Fast R-CNN với độ chính xác trung bình là 0,420 trên cùng một tập dữ liệu.


Từ khóa


Học máy; thị giác máy tính; mạng nơ-ron tích chập; Faster R-CNN; phát hiện máy bay không người lái.

Toàn văn:

PDF (English)

Tài liệu tham khảo


[1]. E. Unlu, E. Zenou, N. Riviere, and P.-E. Dupouy, "Deep learning-based strategies for the detection and tracking of drones using several cameras," IPSJ Transactions on Computer Vision and Applications, vol. 11, no. 7, pp. 1-13, 2019.

[2]. NovoQuad, "ND-BU001 Standard Anti-Drone System," 2020. [Online]. Available: https://www.nqdefense.com/products/anti-drone-system/nd-bu001-standard-anti-drone-system/. [Accessed Mar. 15, 2020].

[3]. DRONESHIELD, "DroneSentry: Autonomous Drone Detection & Countermeasure," 2020. [Online]. Available: https://www.droneshield.com/sentry. [Accessed Mar. 15, 2020].

[4]. G. Fatih, Ü. Göktürk, S. Erol, and K. Sinan, "Vision-Based Detection and Distance Estimation of Micro Unmanned Aerial Vehicles," Sensors, vol. 15, no. 9, pp. 23805-23846, 2015.

[5]. L. Mejias, S. McNamara, J. Lai, and J. Ford, "Vision-based detection and tracking of aerial targets for UAV collision avoidance," IEEE/RSJ International Conference on Intelligent Robots and Systems, Taipei, Taiwan, 2010.

[6]. A. Rozantsev, V. Lepetit, and P. Fua, "Detecting Flying Objects Using a Single Moving Camera," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 5, pp. 879-892, 2016.

[7]. C. Aker, and S. Kalkan, "Using Deep Networks for Drone Detection," IEEE International Conference on Advanced Video and Signal Based Surveillance, Lecce, Italy, 2017.

[8]. M. Wu, W. Xie, X. Shi, P. Shao, and Z. Shi, "Real-Time Drone Detection Using Deep Learning Approach," International Conference on Machine Learning and Intelligent Communications, Hangzhou, China, 2018.

[9]. J. Redmon, and A. Farhadi, "YOLO9000: better, faster, stronger," IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, HI, USA, 2017.

[10]. J. Redmon and A. Farhadi, "YOLOv3: An Incremental Improvement," 2018. [Online]. Available: arXiv:1804.02767. [Accessed Mar. 15, 2020].

[11]. S. Ren, K. He, R. Girshick, and J. Sun, "Faster R-CNN: Towards real-time object detection with region proposal networks," Conference on Neural Information Processing Systems, Montréal Canada, 2015.

[12]. R. Girshick, "Fast R-CNN," IEEE International Conference on Computer Vision, Santiago, Chile, 2015.

[13]. C. Reiser, "Bounding box detection of drones (small scale quadcopters) with CNTK Fast R-CNN," 2017. [Online]. Available:https://github.com/creiser/drone-detection. [Accessed Mar. 15, 2020].

[14]. O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, A. C. Berg and L. Fei-Fei, "ImageNet Large Scale Visual Recognition Challenge," International Journal of Computer Vision, vol. 115, no. 3, pp. 211-252, 2015.

[15]. D. Zhou, F. J., X. Song, C. Guan, J. Yin, Y. Dai, and R. Yang, "IoU Loss for 2D/3D Object Detection," International Conference on 3D Vision, Québec, Canada, 2019.

[16]. K. He, X. Zhang, S. Ren, and J. Sun, "Deep Residual Learning for Image Recognition," IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, USA, 2016.

[17]. A. Krizhevsky, I. Sutskever, and G. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks," Conference on Neural Information Processing Systems, Navada, USA, 2012.

[18]. C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, "Going Deeper With Convolutions," IEEE Conference on Computer Vision and Pattern Recognition, Boston, MA, USA, 2015.

[19]. A. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, M. Andreetto, and H. Adam, "MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications," 2017. [Online]. Available: arXiv:1704.04861. [Accessed Mar. 15, 2020].

[20]. K. Simonyan, and A. Zisserman, "Very deep convolutional networks for large-scale image recognition," International Conference on Learning Representations, San Diego, CA, USA, 2015.




DOI: https://doi.org/10.34238/tnu-jst.3082

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved