MÔ HÌNH BÁM ĐA ĐỐI TƯỢNG ĐẢM BẢO THỜI GIAN THỰC VÀ ỔN ĐỊNH CAO SỬ DỤNG KẾT HỢP BỘ PHÁT HIỆN THEO KHUNG HÌNH KHÓA VÀ BỘ PHÂN LOẠI LUYỆN ĐỒNG BỘ | Phương | TNU Journal of Science and Technology

MÔ HÌNH BÁM ĐA ĐỐI TƯỢNG ĐẢM BẢO THỜI GIAN THỰC VÀ ỔN ĐỊNH CAO SỬ DỤNG KẾT HỢP BỘ PHÁT HIỆN THEO KHUNG HÌNH KHÓA VÀ BỘ PHÂN LOẠI LUYỆN ĐỒNG BỘ

Thông tin bài báo

Ngày nhận bài: 06/10/20                Ngày hoàn thiện: 30/11/20                Ngày đăng: 30/11/20

Các tác giả

1. Phùng Kim Phương, Trường Đại học Kỹ thuật Lê Quý Đôn
2. Nguyễn Quang Thi Email to author, Trường Đại học Kỹ thuật Lê Quý Đôn
3. Nguyễn Hữu Hùng, Trường Đại học Kỹ thuật Lê Quý Đôn
4. Đặng Quang Hiệu, Trường Đại học Kỹ thuật Lê Quý Đôn

Tóm tắt


Trong bài báo này, chúng tôi đề xuất một cách tiếp cận mới trong bám đa đối tượng cho các ứng dụng trên video thời gian thực. Phương pháp bám mới hướng đến khả năng đảm bảo thời gian thực và chống đứt đoạn quỹ đạo bám bằng cách sử dụng kết hợp hai mạng nơ-ron để phát hiện và phân biệt giữa các mục tiêu. Cơ chế này đảm bảo khả năng thời gian thực khi mô hình không phải thực hiện liên tục các phép tính phát hiện học sâu trong khi vẫn đảm bảo cập nhật liên tục và chính xác vị trí của mục tiêu. Chúng tôi gọi đây là cơ chế luyện đồng bộ. Mô hình thứ nhất là bộ phát hiện học sâu Single Shot Detector đồng thời hoạt động như một bộ tạo dữ liệu, mô hình mạng nơ ron thứ hai là một bộ phân loại sẽ được luyện từ dữ liệu thu thập được từ bộ phát hiện. Bộ bám đa đối tượng được xây dựng dưới dạng sự kết hợp của các kỹ thuật được chúng tôi gọi là DCT (Detector-Classifier Tracker). Bài viết này sẽ giải thích đầy đủ cơ chế hoạt động của cơ chế bám ảnh DCT và trình bày kết quả đánh giá đối với phương pháp theo sơ đồ xử lý bám ảnh kết hợp trên dữ liệu thử nghiệm của camera ảnh nhiệt tầm xa.


 

Từ khóa


liên kết dữ liệu; bám đa đối tượng; bám thời gian thực; mạng nơ ron tích chập; học sâu

Toàn văn:

PDF (English)

Tài liệu tham khảo



[1]. Anton Milan, Laura Leal-Taixe, Ian Reid, Stefan Roth, and Konrad Schindler. “A benchmark for multi-object tracking” arXiv:1603.00831v2 [cs.CV] 3 May 2016.

[2]. Qian Yu, Thang Ba Dinh, Gerard Medioni. “Online Tracking and Reacquisition using Co-trained generative and discriminative trackers”, Conference: Computer Vision - ECCV, 10th European Conference on Computer Vision, Marseille, France, October 12-18, 2008, Proceedings, Part II, 2008

[3]. Alex Bewley, Zongyuan Ge, Lionel Ott, Fabio Ramos, Ben Upcroft. “Simple online and realtime tracking” arXiv:1602.00763v2 [cs.CV] Vol.7 Jul 2017.

[4]. Christoph Feichtenhofer, Axel Pinz, Andrew Zisserman. “Detect to track and track to detect”, arXiv:1710.03958v2 [cs.CV] 7 Mar 2018.

[5]. João F. Henriques, Rui Caseiro, Pedro Martins, and Jorge Batista. “High-speed tracking with Kernelized correlation filters”, arXiv:1404.7584v3 [cs.CV] 5 Nov 2014.

[6]. David S.Bolme, J. Ross Beveridge, Bruce A. Draper, Yui Man Lui. “Visual object tracking using adaptive correlation filters”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Francisco, CA, USA, 2010.

[7]. Da Zhang, Hamid Maei, Xin Wang, and Yuan-Fang Wang. “Deep reinforcement learning for visual object tracking in video”, arXiv:1701.08936v2 [cs.CV] 10 Apr 2017.




DOI: https://doi.org/10.34238/tnu-jst.3678

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved