ỨNG DỤNG CÔNG NGHỆ AI TRONG BẢO VỆ NHÀ YẾN TỪ ĐỘNG VẬT SĂN MỒI | Hiếu | TNU Journal of Science and Technology

ỨNG DỤNG CÔNG NGHỆ AI TRONG BẢO VỆ NHÀ YẾN TỪ ĐỘNG VẬT SĂN MỒI

Thông tin bài báo

Ngày nhận bài: 09/07/21                Ngày hoàn thiện: 12/08/21                Ngày đăng: 18/08/21

Các tác giả

1. Lưu Trọng Hiếu, Trường Đại học Cần Thơ
2. Trần Anh Dũng, Trường Cao đẳng nghề An Giang
3. Nguyễn Chí Ngôn Email to author, Trường Đại học Cần Thơ

Tóm tắt


Những năm gần đây, nghề nuôi chim yến phát triển nhanh chóng với khả năng tạo ra lợi nhuận cao và giải quyết nhiều việc làm cho người dân. Tuy nhiên, một số động vật ăn thịt phổ biến như rắn, diều hâu và cú, là một vấn đề lớn không thể bỏ qua. Bài báo này đề xuất một mô hình xua đuổi và báo động khi động vật săn mồi xâm nhập vào nhà yến. Một phần mềm dựa trên mô hình học sâu được phát triển để xác định một số loài săn mồi phổ biến từ hình ảnh được camera chụp lại. Một phần cứng dựa trên nền tảng IoT được áp dụng để gửi tin nhắn cảnh báo đến điện thoại di động khi phần mềm phát hiện rắn tấn công hoặc bật đèn để xua đuổi diều hâu và cú. Kết quả thử nghiệm giai đoạn đầu cho thấy, mô hình học sâu có thể phân loại một số loài săn mồi phổ biến với độ chính xác trên 90%, trong khi hệ thống phần cứng có thể nhắn tin đến đúng số điện thoại khi phát hiện rắn và bật đèn khi nhận ra diều hâu hoặc cú.

Từ khóa


Mạng GoogLeNet; Phương pháp học sâu; Phân loại đối tượng; Nhận dạng đối tượng; Internet vạn vật

Toàn văn:

PDF

Tài liệu tham khảo


[1] J. Huang, Q. Zhang, and L. Qin, "Adapted GooLeNet for Answer Selection," 2nd IEEE Advanced Information Management,Communicates, Electronic and Automation Control Conference (IMCEC), 2018, pp. 1256-1262.

[2] J. Huang, Y. Hu, and W. Yang, "Adapted GooLeNet for Visual Question Answering," 3rd International Conference on Mechanical, Control and Computer Engineering (ICMCCE), 2018, pp. 603-606.

[3] J. Ma, J. Rao, Y. Qiao, and W. Liu, "Sprouting Potato Recognition Based on Deep Neural Network GoogLeNet," IEEE 3rd International Conference on Cloud Computing and Internet of Things (CCIOT), 2018, pp. 502-505.

[4] J. Huang, Q. Zhang, and L. Qin, "Adapted GooLeNet for Answer Selection," 2nd IEEE Advanced Information Management,Communicates,Electronic and Automation Control Conference (IMCEC), 2018, pp. 1256-1262.

[5] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Image Net classification with deep convolutional neural networks,” Advances in Neural Information Processing Systems, 2012, pp. 1097-1105.

[6] H. Q. Doan, H. M. Le, and N. T. Doan, “Face recognition in video using convolutional neural network,” Vietnam science and technology, no. 1, pp. 8-12, 2020.

[7] P. Q. Pham and Q. P. Vuong, “Recognition of handwriting digits using artificial neuron network,” Hue University Journal of Science, no. 1, pp. 119-129, 2019.

[8] S. P. Ho, V. D. Phan, V. C. Le, and H. C. Ta, “Applying neural networks, convolutional neural networks and combination of cpus and gpus to increase calculation performance for image classification,” Vinh Univerisity Journal of science, vol. 47, pp. 64-76, 2018.

[9] C. Szegedy, L. Wei, J. Yangqing, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going Deeper with Convolutions,” ArXiv:1409.4842 [Cs], Sept. 2014.

[10] B. Zhou, A. Khosla, A. Lapedriza, A. Torralba, and A. Oliva, "Places: An image database for deep scene understanding," arXiv preprint arXiv:1610.02055, 2016.

[11] S. Arora, A. Bhaskara, R. Ge, and T. Ma “Provable Bounds for Learning Some Deep Representations,” ArXiv:1310.6343 [Cs, Stat], arXiv.org, Oct. 2013.

[12] L. Min, C. Qiang, and Y. Shuicheng, “Network In Network,” ArXiv:1312.4400 [Cs], arXiv.org, Mar. 2014.




DOI: https://doi.org/10.34238/tnu-jst.4736

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved