NHẬN DẠNG HÀNH VI GIAN LẬN TRONG THI CỬ TỪ HÌNH ẢNH CAMERA DỰA TRÊN MÔ HÌNH YOLOV8 VÀ RESNET-CBAM | Trang | TNU Journal of Science and Technology

NHẬN DẠNG HÀNH VI GIAN LẬN TRONG THI CỬ TỪ HÌNH ẢNH CAMERA DỰA TRÊN MÔ HÌNH YOLOV8 VÀ RESNET-CBAM

Thông tin bài báo

Ngày nhận bài: 26/10/25                Ngày hoàn thiện: 30/12/25                Ngày đăng: 31/12/25

Các tác giả

1. Phùng Thị Thu Trang Email to author, Trường Ngoại ngữ - ĐH Thái Nguyên
2. Dương Ngọc Khang, Trường Ngoại ngữ - ĐH Thái Nguyên
3. Nguyễn Phạm Linh Chi, Trường Ngoại ngữ - ĐH Thái Nguyên

Tóm tắt


Trong bối cảnh gia tăng các hình thức gian lận trong thi cử, đặc biệt tại các môi trường học tập trực tuyến và phòng thi được giám sát bằng camera, việc ứng dụng trí tuệ nhân tạo vào phát hiện hành vi gian lận đang trở thành hướng nghiên cứu quan trọng. Bài báo này đề xuất một mô hình học sâu hiệu quả nhằm nhận dạng hành vi gian lận trong thi cử dựa trên dữ liệu hình ảnh. Cụ thể, hệ thống gồm hai giai đoạn chính: (1) sử dụng mô hình YOLOv8 để phát hiện và cắt chính xác vùng chứa đối tượng thí sinh trong ảnh đầu vào; (2) áp dụng mô hình phân loại nhẹ dựa trên kiến trúc ResNet kết hợp cơ chế chú ý CBAM để nhận dạng hành vi gian lận như sử dụng điện thoại hoặc tài liệu. Kết quả thực nghiệm cho hai mô hình là ResNet18–CBAM và ResNet50-CBAM đạt độ chính xác từ 94,7% đến 96,3%, vượt trội so với các mô hình cùng loại đồng thời đạt tốc độ xử lý 37-57 khung hình/giây trên GPU RTX A4000, đáp ứng yêu cầu triển khai thời gian thực. Ngoài ra, kích thước mô hình chỉ khoảng 11 MB và 44,8 MB, cho phép tích hợp linh hoạt trên các hệ thống giám sát có tài nguyên hạn chế. Kết quả nghiên cứu khẳng định hiệu quả của việc kết hợp giữa mô hình phát hiện đối tượng nhanh YOLOv8 và mô hình phân loại nhẹ có cơ chế chú ý trong nhận dạng hành vi. Giải pháp này góp phần mở ra hướng tiếp cận khả thi cho việc tự động hóa giám sát thi cử, tăng cường tính minh bạch, và giảm thiểu sự phụ thuộc vào giám thị con người trong các hệ thống đánh giá học tập hiện đại.

Từ khóa


Nhận dạng hành vi gian lận; YOLOv8; ResNet–CBAM; Thị giác máy tính; Giám sát thi cử

Toàn văn:

PDF

Tài liệu tham khảo


[1] D. Q. Vu, N. Le, and J.-C. Wang, “Teaching yourself: A self-knowledge distillation approach to action recognition,” IEEE Access, vol. 9, pp. 105711–105723, 2021.

[2] T. H. Mai and H. T. Lin, “Intra-Cluster Mixup: An Effective Data Augmentation Technique for Complementary-Label Learning,” arXiv preprint arXiv:2509.17971, 2025.

[3] Q. V. Duc, T. Phung, M. Nguyen, B. Y. Nguyen, and T. H. Nguyen, “Self-knowledge distillation: An efficient approach for falling detection,” in Proc. Int. Conf. Artificial Intelligence and Big Data in Digital Era, Cham: Springer Int. Publishing, Dec. 2021, pp. 369–380.

[4] G. Jocher, A. Chaurasia, and J. Qiu, “YOLOv8: Ultralytics Next-Generation Object Detection Framework,” IEEE Access, vol. 12, pp. 45612–45623, 2024.

[5] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proc. IEEE Conf. Computer Vision and Pattern Recognition (CVPR), 2016, pp. 770-778.

[6] S. Woo, J. Park, J.-Y. Lee, and I. S. Kweon, “CBAM: Convolutional block attention module,” in Proc. Eur. Conf. Computer Vision (ECCV), 2018, pp. 3-19.

[7] L. Zhou, X. Meng, Z. Liu, et al., “Human pose-based estimation, tracking and action recognition with deep learning: A survey,” arXiv preprint arXiv:2310.XXXX, Oct. 2023.

[8] Y. Liu, et al., “Multiple instance learning for cheating detection and localization in online examinations,” IEEE Trans. Cognitive and Developmental Systems, vol. 16, no. 4, pp. 1315–1326, 2024.

[9] H. Wang, Z. Shukur, K. A. Z. Ariffin, R. Xiao, and L. Wang, “Online exam cheating detection and blockchain trusted deposit based on YOLOv12,” Scientific Reports, vol. 15, no. 1, pp. 1-22, 2025.

[10] C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna, "Rethinking the inception architecture for computer vision," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 2818-2826.

[11] R. Beeranhalli, “Cheating Detection Dataset,” Roboflow Universe, Roboflow, Aug. 2025. [Online]. Available: https://universe.roboflow.com/rakshitha-beeranhalli-louuy/cheating-detection-wmju5. [Accessed Sep. 19, 2025].

[12] A. Howard et al., “Searching for MobileNetV3,” in Proc. IEEE Int. Conf. Computer Vision (ICCV), 2019, pp. 1314-1324.

[13] M. Tan and Q. Le, “EfficientNet: Rethinking model scaling for convolutional neural networks,” in Proc. Int. Conf. Machine Learning (ICML), 2019, pp. 6105-6114.

[14] N. Ma et al., “ShuffleNet V2: Practical guidelines for efficient CNN architecture design,” in Proc. Eur. Conf. Computer Vision (ECCV), 2018, pp. 116-131.

[15] A. Dosovitskiy et al., “An image is worth 16×16 words: Transformers for image recognition at scale,” in Proc. Int. Conf. Learning Representations (ICLR), 2021, pp. 1-21.




DOI: https://doi.org/10.34238/tnu-jst.13871

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved