XÓA XƯƠNG HIỆU QUẢ TRONG ẢNH X-QUANG NGỰC VỚI HÀM MẤT MÁT ĐƠN GIẢN HÓA | Duy | TNU Journal of Science and Technology

XÓA XƯƠNG HIỆU QUẢ TRONG ẢNH X-QUANG NGỰC VỚI HÀM MẤT MÁT ĐƠN GIẢN HÓA

Thông tin bài báo

Ngày nhận bài: 19/04/25                Ngày hoàn thiện: 30/06/25                Ngày đăng: 30/06/25

Các tác giả

1. Nguyễn Quang Duy, Trường Đại học Giao thông Vận tải
2. Nguyễn Đức Mạnh, Trường Đại học Giao thông Vận tải
3. Phạm Huy Hoàng, Trường Đại học Giao thông Vận tải
4. Phạm Thành An, Trường Đại học Giao thông Vận tải
5. Cao Thị Luyên Email to author, Trường Đại học Giao thông Vận tải

Tóm tắt


Chụp X-quang ngực là một công cụ quan trọng trong chẩn đoán các bệnh lý vùng ngực như viêm phổi, ung thư phổi và gãy xương sườn. Tuy nhiên, bóng xương sườn thường che khuất hoặc gây nhiễu với các tổn thương ở phổi, đặc biệt ở các vùng phía sau và nách, làm ảnh hưởng đến độ chính xác trong chẩn đoán. Các phương pháp truyền thống như phân lớp năng lượng kép tuy có thể tách biệt cấu trúc xương và mô mềm nhưng đòi hỏi thiết bị chuyên dụng và có thể làm tăng liều phóng xạ. Trong bài báo này, chúng tôi khảo sát các kiến trúc học sâu tiêu biểu trong bài toán loại bỏ xương từ ảnh X-quang ngực thông thường, giúp nâng cao khả năng quan sát các bất thường ở phổi mà không cần thêm thiết bị phần cứng. Điểm đóng góp chính của nghiên cứu là đề xuất một hàm mất mát đơn giản, giúp giảm độ phức tạp tính toán nhưng vẫn đảm bảo độ chính xác cao trong kết quả suy luận. Phương pháp được đánh giá trên nhiều mô hình khác nhau để làm rõ hiệu quả của hàm mất mát trong nhiệm vụ loại bỏ bóng xương.

Từ khóa


Chụp X quang ngực; Mạng nơ ron tích chập; Residual U-Net; Attention U-Net; Res-Patch GAN

Toàn văn:

PDF (English)

Tài liệu tham khảo


[1] P. Vock and Z. Szucs-Farkas, “Dual energy subtraction: Principles and clinical applications,” Eur. J. Radiol., vol. 72, no. 2, pp. 231–237, 2009.

[2] M. Gusarev, R. Kuleev, A. Khan, A. R. Rivera, and A. M. Khattak, “Deep learning models for bone suppression in chest radiographs,” Proc. IEEE Conf. Comput. Intell. Bioinf. Comput. Biol. (CIBCB), 2017, pp. 1–7.

[3] A. Zarshenas, J. Liu, P. Forti, and K. Suzuki, “Separation of bones from soft tissue in chest radiographs: Anatomy-specific orientation-frequency-specific deep neural network convolution,” Med. Phys., vol. 46, no. 5, pp. 2232–2242, 2019.

[4] Y. Chen et al., “Bone suppression of chest radiographs with cascaded convolutional networks in wavelet domain,” IEEE access, vol. 7, pp. 8346–8357, 2019.

[5] M.-C. Huynh, T.-H. Nguyen, and M.-T. Tran, “Context learning for bone shadow exclusion in CheXNet accuracy improvement,” in Proc. 10th Int. Conf. Knowl. Syst. Eng. (KSE), 2018, pp. 135–140.

[6] P. Rajpurkar et al., “CheXNet: Radiologist-level pneumonia detection on chest X-rays with deep learning,” arXiv preprint, arXiv:1711.05225, 2017.

[7] P. Isola, J.-Y. Zhu, T. Zhou, and A. A. Efros, “Image-to-image translation with conditional adversarial networks,” arXiv preprint, arXiv:1611.07004, 2016.

[8] G. Rani, A. Misra, V. S. Dhaka, E. Zumpano, and E. Vocaturo, “Spatial feature and resolution maximization GAN for bone suppression in chest radiographs,” Comput. Methods Programs Biomed., vol. 224, 2022, Art. no. 107024.

[9] Z. Zhou, L. Zhou, and K. Shen, “Dilated conditional GAN for bone suppression in chest radiographs with enforced semantic features,” Med. Phys., vol. 47, no. 12, pp. 6207–6215, 2020.

[10] O. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional networks for biomedical image segmentation,” Proc. Med. Image Comput. Comput.-Assist. Intervent. (MICCAI), 2015, pp. 234–241.

[11] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), 2016, pp. 770–778.

[12] S. Arvind, J. V. Tembhurne, T. Diwan, and P. Sahare, “Evaluation of deep learning methods for bone suppression from dual energy chest radiography,” Artificial Neural Networks and Machine Learning – ICANN 2020, 2020, pp. 247–257.

[13] T.-Y. Lin, P. Dollár, R. B. Girshick, K. He, B. Hariharan, and S. J. Belongie, “Feature pyramid networks for object detection,” arXiv preprint, arXiv:1612.03144, 2016.

[14] S. Kalisz and M. Marczyk, “Autoencoder-based bone removal algorithm from x-ray images of the lung,” Proc. IEEE 21st Int. Conf. Bioinf. Bioeng. (BIBE), 2021, pp. 1–6.

[15] S. Rajaraman, G. Zamzmi, L. Folio, P. Alderson, and S. Antani, “Chest x-ray bone suppression for improving classification of tuberculosis-consistent findings,” Diagnostics, vol. 11, no. 5, 2021, Art. no. 840.

[16] S. Arvind, J. V. Tembhurne, T. Diwan, and P. Sahare, “Improvised light weight deep CNN based U-Net for the semantic segmentation of lungs from chest X-rays,” Results Eng., vol. 17, 2023, Art. no. 100929.

[17] O. Oktay et al., “Attention U-Net: Learning where to look for the pancreas,” arXiv preprint, arXiv:1804.03999, 2018.

[18] P. Isola, J.-Y. Zhu, T. Zhou, and A. A. Efros, “Image-to-image translation with conditional adversarial networks,” Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), 2017, pp. 1125–1134.

[19] H. M. Chuong, “X-ray bone shadow suppression,” Kaggle, 2022. [Online]. Available: https://www.kaggle.com/datasets/hmchuong/xray-bone-shadow-supression. [Accessed March 30, 2025].




DOI: https://doi.org/10.34238/tnu-jst.12628

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved