ĐÁNH GIÁ CHẤT LƯỢNG BÀI KIỂM TRA THƯỜNG XUYÊN VỚI CÂU HỎI TRẮC NGHIỆM TRỰC TUYẾN THEO MÔ HÌNH LÝ THUYẾT ĐÁP ỨNG CÂU HỎI BA THAM SỐ | Nguyên | TNU Journal of Science and Technology

ĐÁNH GIÁ CHẤT LƯỢNG BÀI KIỂM TRA THƯỜNG XUYÊN VỚI CÂU HỎI TRẮC NGHIỆM TRỰC TUYẾN THEO MÔ HÌNH LÝ THUYẾT ĐÁP ỨNG CÂU HỎI BA THAM SỐ

Thông tin bài báo

Ngày nhận bài: 15/10/25                Ngày hoàn thiện: 30/12/25                Ngày đăng: 31/12/25

Các tác giả

1. Cao Thị Tài Nguyên Email to author, Trường Đại học Y Dược Cần Thơ
2. Trịnh Minh Thiết, Trường Đại học Y Dược Cần Thơ

Tóm tắt


Ngân hàng câu hỏi của học phần Sinh học – Di truyền đã được sử dụng trong nhiều năm nhưng chưa có đánh giá hệ thống về chất lượng dựa trên các tham số độ khó và khả năng phân biệt, mà chủ yếu dựa vào nhận định chủ quan của giảng viên. Nghiên cứu này nhằm đánh giá chất lượng của 100 câu hỏi trắc nghiệm trực tuyến thuộc chủ đề Cấu trúc tế bào, bằng cách áp dụng mô hình Lý thuyết đáp ứng câu hỏi ba tham số (3PL-IRT).Dữ liệu được thu thập từ 1.278 kết quả làm bài của sinh viên khóa 48 và 36 trong năm học 2022–2023, và được phân tích bằng gói “ltm” trong phần mềm R. Kết quả cho thấy 97% câu hỏi có khả năng phân biệt đạt yêu cầu ở các mức độ khó khác nhau: 1% rất khó, 12% khó, 35% trung bình, 49% dễ và 3% rất dễ.Về mức độ phân biệt: 42% rất tốt, 26% tốt, 29% trung bình, 1% kém và 2% rất kém. Nghiên cứu ghi nhận 87% câu hỏi được đánh giá là có chất lượng cao, tuy nhiên 10 câu hỏi có mức độ đoán mò cao cần được chỉnh sửa để nâng cao độ tin cậy.Việc áp dụng mô hình 3PL-IRT là cần thiết trong đánh giá và cải tiến ngân hàng câu hỏi, nhằm đảm bảo tính tin cậy, hiệu quả trong việc đo lường năng lực người học và hỗ trợ quá trình học tập của sinh viên trong học phần Sinh học – Di truyền.

Từ khóa


Lý thuyết đáp ứng câu hỏi (IRT); Mô hình ba tham số (3PL-IRT); Câu hỏi trắc nghiệm; Phần mềm R; Sinh học – Di truyền

Toàn văn:

PDF (English)

Tài liệu tham khảo


[1] M. F.-B. Craig and S. Wells, Educational Measurement from foundations to future. Guilford Publications, 2016.

[2] R. Jabrayilov, W. H. M. Emons, and K. Sijtsma, “Comparison of classical test theory and item response theory in individual change assessment,” Applied Psychological Measurement, vol. 40, no. 8, pp. 559–572, 2016, doi: 10.1177/0146621616664046.

[3] J. A. Prieler, “So wrong for so long: Changing our approach to change,” The Psychologist, vol. 20, pp. 730–732, 2007.

[4] S. P. Reise and M. G. Haviland, “Item response theory and the measurement of clinical change,” Journal of Personality Assessment, vol. 84, pp. 228–238, 2005.

[5] R. J. De Ayala, The Theory and Practice of Item Response Theory. New York, NY: Guilford Press, 2009.

[6] K. Hori, H. Fukuhara, and T. Yamada, “Item response theory and its applications in educational measurement Part I: Item response theory and its implementation in R,” WIREs Computational Statistics, vol. 14, 2020, doi: 10.1002/wics.1531.

[7] F. B. Baker, The Basics of Item Response Theory, 2nd ed. Madison, WI: ERIC Clearinghouse on Assessment and Evaluation, 2001.

[8] J. C. Cappelleri, J. Lundy, and R. D. Hays, “Overview of classical test theory and item response theory for the quantitative assessment of items in developing patient-reported outcomes measures,” Clinical Therapeutics, vol. 36, no. 5, pp. 648–662, 2014.

[9] F. B. Baker and S.-H. Kim, Eds., Item Response Theory: Parameter Estimation Techniques, 2nd ed. Boca Raton, FL: CRC Press, 2004, doi: 10.1201/9781482276725.

[10] N. T. T. Cao and P. D. Pham, “Factors affecting online MCQ test performance on cell structure among first-year Vietnamese healthcare students,” E-Learning and Digital Media, 2025, doi: 10.1177/20427530251313770.

[11] J. Kasali and A. A. Adeyemi, “Model-Data Fit using Akaike Information Criterion (AIC), Bayesian Information Criterion (BIC), and the sample-size-adjusted BIC,” Journal of Mathematics and Mathematics Education, vol. 4, no. 1, pp. 43–51, 2022, doi: 10.21580/square.2022.4.1.11297.

[12] M. D. Toland, “Practical guide to conducting an item response theory analysis,” The Journal of Early Adolescence, 2013, doi: 10.1177/0272431613511332.

[13] M. Mulyono, R. Widyana, P. M. Kadir, W. W. Masruria, M. Baihaqi, and E. C. Setiawan, “Three-Parameter Item Response Theory Analysis of the Multiple-Choice Items in PIRLS 2016,” Int. J. Lang. Testing, vol. 15, no. 2, pp. 109-119, Oct. 2025. [Online]. Available: https://www.ijlt.ir/article_ 217290.html. [Accessed November 5th, 2025].

[14] O. Adetutu and A. Lawal, “Applications of item response theory models to assess item properties and students’ abilities in dichotomous responses items,” Open Journal of Educational Development, vol. 3, no. 1, pp. 1–19, 2023, doi: 10.52417/ojed.v3i1.304.

[15] V.C. Nguyen and V. T. Pham, “Analysis and evaluation of multiple-choice test items and test design: A study on application of item response theory,” TNU Journal of Science and Technology, vol. 226, no. 13, pp. 72–81, 2021.

[16] T. T. N. Cao, “Initial evaluation of the MCQ question bank on the cell cycle and cell division using the two-parameter IRT model,” TNU Journal of Science and Technology, vol. 230, no. 2, pp. 160–168, 2025.




DOI: https://doi.org/10.34238/tnu-jst.13765

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved