PHƯƠNG PHÁP META-GENERATION CHO CÁC MÔ HÌNH NGÔN NGỮ LỚN
Thông tin bài báo
Ngày nhận bài: 21/03/25                Ngày hoàn thiện: 26/06/25                Ngày đăng: 28/06/25Tóm tắt
Nghiên cứu đặt ra câu hỏi: Làm thế nào để cải thiện độ chính xác và hiệu quả trong xử lý ngôn ngữ tự nhiên bằng cách tối ưu hóa quy trình sinh đầu ra? Mục đích là phát triển một phương pháp meta-generation giúp nâng cao chất lượng đầu ra của mô hình ngôn ngữ lớn thông qua các bước phản hồi và điều chỉnh có hệ thống. Phương pháp nghiên cứu tập trung vào việc xây dựng quy trình ba giai đoạn: (1) sinh đầu ra ban đầu từ mô hình, (2) thu thập phản hồi để phát hiện sai sót, và (3) điều chỉnh đầu ra dựa trên phản hồi nhằm tạo kết quả chính xác hơn. Điểm nổi bật của phương pháp là chia nhỏ bài toán thành các bước cụ thể, sinh ra nhiều ứng viên đầu ra, sau đó sử dụng mô hình thưởng hoặc cơ chế bỏ phiếu để chọn đáp án tối ưu. Kết quả nghiên cứu cho thấy cách tiếp cận meta-generation giúp cải thiện độ chính xác của mô hình thông qua kiểm tra, phản hồi và chọn lọc theo từng bước. Số liệu thực nghiệm (nếu có) minh chứng rằng mô hình điều chỉnh có hiệu suất vượt trội so với các mô hình chỉ sinh đầu ra một lần duy nhất. Cách tiếp cận này cho thấy tiềm năng rõ rệt trong việc nâng cao hiệu suất suy luận và chất lượng đầu ra của mô hình ngôn ngữ.
Từ khóa
Toàn văn:
PDFTài liệu tham khảo
[1] W. Fedus, B. Zoph, and N. Shazeer, "Switch transformers: Scaling to trillion parameter models with simple and efficient sparsity," arXiv preprint arXiv:2101.03961, 2022.
[2] G. Feng, B. Zhang, Y. Gu, H. Ye, D. He, and L. Wang, “Towards revealing the mystery behind chain of thought: a theoretical perspective,” Advances in Neural Information Processing Systems, vol. 36, pp. 70757–70798, 2023.
[3] M. Finlayson, J. Hewitt, A. Koller, S. Swayamdipta, and A. Sabharwal, “Closing the curious case of neural text degeneration,” arXiv preprint arXiv:2310.01693, 2023.
[4] M. Hobbahn, L. Heim, and G. Aydos, "Trends in machine learning hardware," Epoch AI, Nov. 9, 2023. [Online]. Available: https://epoch.ai. [Accessed Nov. 26, 2024].
[5] E. Tulchinskii, K. Kuznetsov, L. Kushnareva, D. Cherniavskii, S. Nikolenko, E. Burnaev, et al., “Intrinsic dimension estimation for robust detection of AI-generated texts,” Advances in Neural Information Processing Systems, vol. 36, pp. 39257–39276, 2023.
[6] M. Li, W. Wang, F. Feng, F. Zhu, Q. Wang, and T. S. Chua, “Think twice before trusting: Self-detection for large language models through comprehensive answer reflection,” arXiv preprint arXiv:2403.09972, 2024.
[7] Y. He, J. Zhang, J. Bao, F. Lin, C. Yang, B. Qin, et al., “BC-Prover: Backward Chaining Prover for Formal Theorem Proving,” in Proc. 2024 Conf. Empirical Methods in Natural Language Processing (EMNLP), Miami, Florida, Nov. 2024, pp. 3059–3077.
[8] D. Jurafsky, B. Brown, R. Ehrlich, D. Y. Fu, C. Ré, and A. Mirhoseini, "Hydragen: High-throughput LLM inference with shared prefixes," arXiv preprint arXiv:2402.03467, 2024.
[9] L. Wang, S. Chen, L. Jiang, S. Pan, R. Cai, S. Yang, and F. Yang, “Parameter-efficient fine-tuning in large language models: A survey of methodologies,” Artificial Intelligence Review, vol. 58, no. 8, 2025, Art. no. 227.
[10] B. Weng, "Navigating the landscape of large language models: A comprehensive review and analysis of paradigms and fine-tuning strategies," arXiv preprint arXiv:2404.09022, 2024.
[11] A. D. Cohen, A. Roberts, A. Molina, A. Butryna, A. Jin, A. Kulshreshtha, et al., "LaMDA: Language models for dialog applications," arXiv preprint arXiv:2201.08239, 2022.
[12] T. Kaufmann, P. Weng, V. Bengs, and E. Hüllermeier, "A survey of reinforcement learning from human feedback," arXiv preprint arXiv:2312.14925, 2023.
[13] S. Welleck, A. Bertsch, M. Finlayson, et al., "From Decoding to Meta-Generation: Inference-time Algorithms for Large Language Models," arXiv preprint arXiv:2406.16838v2, 2024.
DOI: https://doi.org/10.34238/tnu-jst.12364
Các bài báo tham chiếu
- Hiện tại không có bài báo tham chiếu