MỘT MÔ HÌNH HỌC SÂU CHO BÀI TOÁN PHÁT HIỆN NGƯỜI BỊ NGÃ

Thông tin bài báo

Ngày nhận bài: 05/08/20                Ngày hoàn thiện: 13/11/20                Ngày đăng: 27/11/20

Các tác giả

1. Phùng Thị Thu Trang Email to author, Trường Ngoại ngữ - ĐH Thái Nguyên
2. Ma Thị Hồng Thu, Trường Đại học Tân Trào

Tóm tắt


Té ngã là một trong những vấn đề nghiêm trọng đối với con người, chiếm tỷ lệ tử vong lên đến 25%, tỷ lệ này càng cao hơn đối với những người cao tuổi. Nhận dạng người bị ngã là một trong những bài toán quan trọng trong lĩnh vực thị giác máy tính. Những năm gần đây, thị giác máy tính đã đạt được tiến bộ ấn tượng khi mà học sâu thể hiện khả năng tự động học. Đã có nhiều mô hình học sâu dựa trên mạng nơ ron tích chập 3D (CNN) đã được đề xuất để giải quyết vấn đề này. Trong bài báo này, chúng tôi đề xuất một mô hình (2+1)D ResNet-18 giải quyết bài toán nhận dạng người bị ngã. Kết quả thử nghiệm cho thấy, (2+1)D ResNet-18 cho độ chính xác tốt hơn 0,87% trên bộ dữ liệu FDD và 1,13% trên bộ dữ liệu URFD so với các phương pháp được đề xuất gần đây.


Từ khóa


Học sâu; mạng CNN; phát hiện người bị té ngã; mạng nơron; (2+1)D ResNet

Toàn văn:

PDF

Tài liệu tham khảo


[1]. A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet Classification with Deep Convolutional Neural Networks,” in Proceeding of Advances in Neural Information Processing Systems (NIPS), 2012, pp. 1106-1114.

[2]. M. D. Zeiler, and R. Fergus, “Visualizing and Understanding Convolutional Networks,” European Conference on Computer Vision, Springer, 2014, pp. 818-833.

[3]. C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going Deeper with Convolutions,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp. 1-9.

[4]. K. Simonyan, and A. Zisserman, “Very deep Convolutional Networks for large-scale Image Recognition,” in Proceedings of the International Conference on Learning Representations, 2015, pp. 1-14.

[5]. K. He, X. Zhang, S. Ren, and J. Sun, “Deep Residual Learning for Image Recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016, pp. 770-778.

[6]. K. Hara, H. Kataoka, and Y. Satoh, “Can Spatiotemporal 3d CNNs retrace the history of 2d CNNs and Imagenet?” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018, pp. 6546-6555.

[7]. A. Nú˜nez-Marcos, G. Azkune, and I. Arganda-Carreras, “Vision-based Fall Detection with Convolutional Neural Networks,” Wireless communications and mobile computing, vol. 2017, pp. 1-16, 2017.

[8]. S. A. Cameiro, G. P. da Silva, G. V. Leite, R. Moreno, S. J. F. Guimarães, and H. Pedrini, “Multi-stream Deep Convolutional Network using High-level Features applied to Fall Detection in Video Sequences,” in International Conference on Systems, Signals and Image Processing, 2019, pp. 293-298.

[9]. I. Charfi, J. Miteran, J. Dubois, M. Atri, and R. Tourki, “Definition and Performance Evaluation of a robust SVM based Fall Detection Solution,” in 8th International Conference on Signal Image Technology and Internet Based Systems, 2012, pp. 218-224.

[10]. N. Zerrouki, F. Harrou, A. Houacine, and Y. Sun, “Fall Detection using Supervised Machine Learning Algorithms: A comparative study,” in 8th International Conference on Modelling, Identification and Control (ICMIC), IEEE, 2016, pp. 665-670.

[11]. N. Zerrouki, and A. Houacine, “Combined Curvelets and Hidden Markov Models for Human Fall Detection,” Multimedia Tools and Applications, vol. 77, no. 5, pp. 6405-6424, 2018.

[12]. D. Tran, H. Wang, L. Torresani, J. Ray, Y. LeCun, and M. Paluri, “A Closer Look at Spatiotemporal Convolutions for Action Recognition,” in Proceedings of the IEEE conference on Computer Vision and Pattern Recognition, 2018, pp. 6450-6459.

[13]. B. Kwolek, and M. Kepski, “Human Fall Detection on Embedded Platform using Depth Maps and Wireless Accelerometer,” Computer methods and programs in biomedicine, vol. 117, no. 3, pp. 489-501, 2014.


Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved