Retrieval-Augmented Generation หรือ RAG คือเทคนิคหรือกระบวนการเพิ่มความถูกต้อง (Accuracy) และความน่าเชื่อถือ (Reliability) ให้กับโมเดล LLM ด้วยการหาข้อมูลเพิ่มเติมจากแหล่งข้อมูลภายนอกที่น่าเชื่อถืออื่น ๆ ที่ไม่ใช่ข้อมูลฝึก (Training Data) ก่อนที่จะมาเรียบเรียงคำตอบก่อนส่งกลับไป
โดยคำว่า RAG นั้นมาจากงานตีพิมพ์ของคุณ Patrick Lewis ร่วมกับนักวิจัยท่านอื่น ๆ อีกมากมายที่เผยแพร่ออกมาในปี 2020 ซึ่งเป็นเทคนิคที่ทางทีมนักวิจัยต้องการผสมผสานการใช้องค์ความรู้ที่อยู่ในโมเดลร่วมกับข้อมูลภายนอกที่มาจาก Wikipedia โดยนำมาทำเป็นดัชนีเวกเตอร์ (Vector Index) เพื่อสืบค้นข้อมูลได้ในรายละเอียดที่มากขึ้น
จากงานตีพิมพ์ นักวิจัยนิยาม RAG ว่าเป็นเหมือน “สูตรสำหรับการทำ Fine-Tuning ทั่วไป” จึงทำให้คำว่า RAG กลายเป็นคำที่อธิบายถึงเทคนิคที่จะใช้เชื่อมโยงเอาโมเดล LLM ให้สามารถเชื่อมกับแหล่งข้อมูลภายนอกใด ๆ ก็ได้ ที่ทำให้โมเดลสามารถอ้างอิง (Cite) แหล่งข้อมูลต่าง ๆ ได้เหมือนในงานตีพิมพ์ จึงทำให้มั่นใจในผลลัพธ์จาก LLM ได้มากขึ้น
เพราะในบางครั้ง ข้อมูลที่สอบถามโมเดล LLM ไปนั้นเป็นสิ่งที่อยู่เหนือกว่าข้อมูลที่ใช้ฝึกฝนไปแล้วก่อนหน้านี้ การใช้เทคนิค RAG จึงเป็นเหมือนกับกระบวนการที่จะช่วยให้โมเดล LLM สามารถเข้าถึงแหล่งข้อมูลใหม่ล่าสุดที่มีรายละเอียดมากขึ้น หรือเข้าถึงข้อมูลองค์กรที่เฉพาะเจาะจงได้
RAG นอกจากจะทำให้ผลลัพธ์ตอบกลับมีความถูกต้องมากขึ้น และเชื่อใจในผลลัพธ์จาก LLM ได้มากขึ้นได้แล้ว ยังช่วยลดโอกาสที่โมเดล LLM จะหลุดข้อมูลที่มีความละเอียดอ่อน (Sensitive) หรือว่าอาการหลอน (Hallucination) ให้คำตอบที่ไม่ถูกต้องหรือเข้าใจผิดออกไปได้ด้วย
ด้วยเหตุนี้ เทคนิค RAG ได้ถูกนำไปประยุกต์ใช้ในวงกว้าง โดยเฉพาะ Chatbot หรือระบบคลังความรู้ที่สามารถใช้ถามตอบได้ เป็นต้น ซึ่ง RAG อาจเรียกได้ว่าเป็นมาตรฐานของการพัฒนาแอปพลิเคชัน LLM ไปแล้วก็ว่าได้
ที่มา: