TỔNG QUAN VỀ ỨNG DỤNG TRÍ TUỆ NHÂN TẠO TẠO SINH TRONG QUÁ TRÌNH PHÁT SINH MÃ NGUỒN PHẦN MỀM | Việt | TNU Journal of Science and Technology

TỔNG QUAN VỀ ỨNG DỤNG TRÍ TUỆ NHÂN TẠO TẠO SINH TRONG QUÁ TRÌNH PHÁT SINH MÃ NGUỒN PHẦN MỀM

Thông tin bài báo

Ngày nhận bài: 13/03/25                Ngày hoàn thiện: 26/06/25                Ngày đăng: 28/06/25

Các tác giả

1. Nguyễn Văn Việt Email to author, Trường Đại học Công nghệ thông tin và Truyền thông- ĐH Thái Nguyên
2. Nguyễn Hữu Khánh, Đại học Thái Nguyên
3. Nguyễn Thế Vịnh, Trường Đại học Công nghệ thông tin và Truyền thông- ĐH Thái Nguyên
4. Vũ Văn Diện, Trường Đại học Công nghệ thông tin và Truyền thông- ĐH Thái Nguyên
5. Nguyễn Kim Sơn, Trường Đại học Công nghệ thông tin và Truyền thông- ĐH Thái Nguyên
6. Lương Thị Minh Huế, Trường Đại học Công nghệ thông tin và Truyền thông- ĐH Thái Nguyên

Tóm tắt


Bài báo tổng quan về ứng dụng trí tuệ nhân tạo tạo sinh trong phát sinh mã nguồn phần mềm, với trọng tâm là các mô hình ngôn ngữ lớn như GPT-4, CodeBERT, Codex và AlphaCode. Các mô hình này hỗ trợ lập trình viên tự động hóa nhiều tác vụ như sinh mã từ mô tả ngôn ngữ tự nhiên, phát hiện lỗi, tối ưu mã và cải thiện bảo trì phần mềm. Nghiên cứu áp dụng phương pháp PRISMA để phân tích tài liệu từ Web of Science giai đoạn 2021-2025, tập trung vào xu hướng và chủ đề quan trọng trong kỹ thuật phần mềm. Kết quả cho thấy sự gia tăng mạnh mẽ số lượng nghiên cứu vào năm 2024, đặc biệt từ các nguồn Elsevier và IEEE. Dù trí tuệ nhân tạo tạo sinh mang lại nhiều lợi ích, bài báo cũng đề cập đến các thách thức như độ chính xác của mã sinh, lỗi ảo giác, vấn đề bảo mật và quyền riêng tư. Việc tích hợp trí tuệ nhân tạo tạo sinh vào phát triển phần mềm đòi hỏi phương pháp tiếp cận phù hợp để khai thác tối đa tiềm năng công nghệ. Bài báo kết luận rằng nghiên cứu về trí tuệ nhân tạo tạo sinh trong kỹ thuật phần mềm vẫn còn nhiều khoảng trống, mở ra cơ hội phát triển trong tương lai.

Từ khóa


Trí tuệ nhân tạo tạo sinh; Kỹ thuật phần mềm; Transformer; Trí tuệ nhân tạo; PRISMA

Toàn văn:

PDF

Tài liệu tham khảo


[1] Y. Wan et al., “Deep learning for code intelligence: Survey, benchmark and toolkit,” ACM Comput. Surv., vol. 56, no. 12, pp. 1–41, 2024.

[2] J. Wang, Y. Huang, C. Chen, Z. Liu, S. Wang, and Q. Wang, “Software testing with large language models: Survey, landscape, and vision,” IEEE Transactions on Software Engineering, vol. 50, no. 4, pp. 911 – 936, 2024.

[3] Z. Zheng et al., “Towards an understanding of large language models in software engineering tasks,” Empirical Softw. Engg., vol. 30, no. 2, Dec. 2024, doi: 10.1007/s10664-024-10602-0.

[4] V. V. Nguyen et al., “Revolutionizing Education: An Extensive Analysis of Large Language Models Integration,” IRJSTEM, vol. 4, no. 4, pp. 10-21, 2024.

[5] H. K. Nguyen, V. V. Nguyen, T. V. Nguyen, and H. C. Nguyen, “Phi-3 Meets Law: Fine-tuning Mini Language Models for Legal Document Understanding,” Research, Development and Application on Information and Communication Technology, vol. 2024, no. 3, pp. 136–142, 2024.

[6] D. Song et al., “LUNA: A Model-Based Universal Analysis Framework for Large Language Models,” IEEE Transactions on Software Engineering, vol. 50, no. 7, pp. 1921–1948, 2024, doi: 10.1109/TSE.2024.3411928.

[7] S. S. Sohail et al., “Decoding ChatGPT: A taxonomy of existing research, current challenges, and possible future directions,” Journal of King Saud University-Computer and Information Sciences, vol. 35, no. 8, 2023, Art. no. 101675.

[8] N. Kiesler, D. Lohr, and H. Keuning, “Exploring the potential of large language models to generate formative programming feedback,” in 2023 IEEE Frontiers in Education Conference (FIE), IEEE, 2023, pp. 1–5.

[9] Z. Fan, X. Gao, M. Mirchev, A. Roychoudhury, and S. H. Tan, “Automated repair of programs from large language models,” in 2023 IEEE/ACM 45th International Conference on Software Engineering (ICSE), IEEE, 2023, pp. 1469–1481.

[10] J. Lu, L. Yu, X. Li, L. Yang, and C. Zuo, “LLaMA-Reviewer: Advancing Code Review Automation with Large Language Models through Parameter-Efficient Fine-Tuning,” in 2023 IEEE 34th International Symposium on Software Reliability Engineering (ISSRE), IEEE, 2023, pp. 647–658.

[11] V. Siddeshwar, S. Alwidian, and M. Makrehchi, “A Systematic Review of AI-Enabled Frameworks in Requirements Elicitation,” IEEE Access, vol. 12, pp. 154310-154336, 2024.

[12] J. Wei et al., “Emergent abilities of large language models,” arXiv preprint arXiv:2206.07682, 2022.

[13] J. Sallou, T. Durieux, and A. Panichella, “Breaking the silence: the threats of using llms in software engineering,” in Proceedings of the 2024 ACM/IEEE 44th International Conference on Software Engineering: New Ideas and Emerging Results, 2024, pp. 102–106.

[14] G. Xiao, J. Lin, M. Seznec, H. Wu, J. Demouth, and S. Han, “Smoothquant: Accurate and efficient post-training quantization for large language models,” in International Conference on Machine Learning, PMLR, 2023, pp. 38087–38099.

[15] Y. Liu et al., “Summary of chatgpt-related research and perspective towards the future of large language models,” Meta-Radiology, vol. 1, no. 2, 2023, Art. no. 100017.

[16] P. Vaithilingam, T. Zhang, and E. L. Glassman, “Expectation vs. experience: Evaluating the usability of code generation tools powered by large language models,” in Chi Conference on Human Factors in Computing Systems Extended Abstracts, 2022, pp. 1–7.

[17] I. Singh et al., “Progprompt: Generating situated robot task plans using large language models,” in 2023 IEEE International Conference on Robotics and Automation (ICRA), IEEE, 2023, pp. 11523–11530.

[18] S. Makridakis, F. Petropoulos, and Y. Kang, “Large language models: Their success and impact,” Forecasting, vol. 5, no. 3, pp. 536–549, 2023.

[19] Y. Fu et al., “Gpt4aigchip: Towards next-generation ai accelerator design automation via large language models,” in 2023 IEEE/ACM International Conference on Computer Aided Design (ICCAD), IEEE, 2023, pp. 1–9.




DOI: https://doi.org/10.34238/tnu-jst.12305

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu
Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên
Phòng 408, 409 - Tòa nhà Điều hành - Đại học Thái Nguyên
Phường Tân Thịnh - Thành phố Thái Nguyên
Điện thoại: 0208 3840 288 - E-mail: jst@tnu.edu.vn
Phát triển trên nền tảng Open Journal Systems
©2018 All Rights Reserved