Vectara เปิดตัว Hallucination Corrector เพิ่มความน่าเชื่อถือ AI องค์กร

Vectara ผู้ให้บริการแพลตฟอร์มปัญญาประดิษฐ์ในรูปแบบเอเจนต์และผู้ช่วย ประกาศเปิดตัว Hallucination Corrector เครื่องมือตัวใหม่ที่ผสานรวมเข้ากับบริการโดยตรง โดยออกแบบมาเพื่อตรวจจับและลดผลลัพธ์ที่ไม่น่าเชื่อถือและมีต้นทุนสูงจากโมเดล AI สำหรับองค์กร

Credit: Vectara

Hallucinations หรือ “อาการหลอน” เกิดขึ้นเมื่อโมเดลภาษาใหญ่ (LLM) ให้ข้อมูลเท็จอย่างมั่นใจ ซึ่งเป็นปัญหาที่อยู่กับอุตสาหกรรมนี้มานาน สำหรับโมเดลแบบดั้งเดิม คาดว่าอาการหลอนจะเกิดขึ้นประมาณ 3% ถึง 10% ของคำถามทั้งหมดโดยเฉลี่ย ขึ้นอยู่กับตัวโมเดล

การมาของโมเดล AI ที่มีความสามารถด้านเหตุผล ซึ่งสามารถแยกคำถามที่ซับซ้อนออกเป็นขั้นตอนเพื่อ “คิดวิเคราะห์” ทำให้มีการเพิ่มขึ้นของอัตราการหลอนอย่างชัดเจน

จากรายงานของ Vectara พบว่า DeepSeek-R1 ซึ่งเป็นโมเดลที่มีความสามารถในการให้เหตุผล มีอัตราการหลอนสูงถึง 14.3% ขณะที่รุ่นก่อนหน้าอย่าง DeepSeek R3 มีเพียง 3.9% เช่นเดียวกับ GPT-o1 ของ OpenAI ซึ่งเป็นโมเดลแบบใช้เหตุผลเช่นกัน ก็เพิ่มขึ้นเป็น 2.4% จาก GPT-4o ที่ 1.5% นอกจากนี้ New Scientist ก็เผยแพร่รายงานที่คล้ายกัน และพบว่าอัตราาการหลอนในโมเดลใช้เหตุผลหลายตัวนั้นสูงยิ่งกว่า

“แม้ว่า LLM จะมีความก้าวหน้าในการลดปัญหาการหลอนในช่วงหลัง แต่ก็ยังห่างไกลจากมาตรฐานความแม่นยำที่จำเป็นในอุตสาหกรรมที่มีกฎระเบียบเข้มงวด เช่น บริการทางการเงิน การแพทย์ กฎหมาย และอื่น ๆ อีกมาก” Amr Awadallah ผู้ก่อตั้งและประธานเจ้าหน้าที่บริหารของ Vectara กล่าว

ในการทดสอบเบื้องต้น Vectara ระบุว่า Hallucination Corrector สามารถลดอัตราการหลอนในระบบ AI สำหรับองค์กรลงเหลือประมาณ 0.9%

เครื่องมือนี้ทำงานร่วมกับ Hughes Hallucination Evaluation Model (HHEM) ซึ่งเป็นโมเดลที่ถูกใช้งานอย่างกว้างขวางของบริษัท สำหรับเปรียบเทียบคำตอบกับเอกสารต้นฉบับและระบุว่าข้อมูลนั้นถูกต้องหรือไม่ในระหว่างการทำงาน

HHEM จะให้คะแนนความน่าจะเป็นระหว่าง 0 ถึง 1 โดยที่ 0 หมายถึงไม่ถูกต้องเลย – คืออาการหลอนเต็มรูปแบบ – และ 1 หมายถึงความแม่นยำสมบูรณ์ ตัวอย่างเช่น คะแนน 0.98 หมายถึงคำตอบนั้นน่าจะถูกต้องในระดับ 98% ปัจจุบัน HHEM มีให้ใช้งานใน Hugging Face และมียอดดาวน์โหลดกว่า 250,000 ครั้งเมื่อเดือนที่แล้ว ทำให้เป็นหนึ่งในเครื่องมือตรวจจับการหลอนที่ได้รับความนิยมมากที่สุดบนแพลตฟอร์ม

หากพบคำตอบที่ไม่ตรงกับข้อเท็จจริง Corrector จะให้ผลลัพธ์อย่างละเอียด รวมถึงคำอธิบายว่าทำไมข้อความนั้นจึงถือเป็นการหลอน พร้อมกับเวอร์ชันที่แก้ไขโดยเปลี่ยนแปลงน้อยที่สุดเพื่อความแม่นยำ

บริษัทระบุว่าจะใช้เวอร์ชันที่แก้ไขแล้วโดยอัตโนมัติในบทสรุปที่แสดงต่อผู้ใช้ปลายทาง แต่ผู้เชี่ยวชาญสามารถเข้าถึงคำอธิบายเต็มและคำแนะนำการแก้ไขเพื่อนำไปใช้ในการทดสอบ ปรับแต่งโมเดล และวางมาตรการป้องกันการหลอน นอกจากนี้ยังสามารถแสดงสรุปต้นฉบับร่วมกับข้อมูลการแก้ไขเพื่อเตือนผู้ใช้ และเสนอเวอร์ชันที่แก้ไขแล้วเป็นทางเลือก

สำหรับกรณีที่คำตอบจาก LLM นั้นจัดอยู่ในกลุ่มที่ชวนให้เข้าใจผิดแต่ไม่ใช่ข้อมูลเท็จโดยตรง Hallucination Corrector ยังสามารถปรับแต่งคำตอบเพื่อลดความไม่แน่นอน ตามค่าการตั้งค่าของลูกค้าได้อีกด้วย

ที่มา: https://siliconangle.com/2025/05/13/vectara-launches-hallucination-corrector-increase-reliability-enterprise-ai/

About นักเขียนฝึกหัดหมายเลขเก้า

Check Also

Elastic 9.4 ออกแล้ว

Elastic ได้ออกมาประกาศเปิดตัว Elastic 9.4 อย่างเป็นทางการ โดยเพิ่มความสามารถในการตรวจสอบการทำงานของ Context Engineering, Application และ Infrastructure เพิ่มเติม, เสริม AI ในการรักษาความมั่นคงปลอดภัย และเพิ่มความสามารถอื่นๆ อีกมากมาย ดังนี้

VMware เปิดตัว VCF 9.1 ยกระดับ Private Cloud เพิ่มความคุ้มค่าและความปลอดภัย ตอบโจทย์ยุค AI

VMware ได้ประกาศเปิดตัว VMware Cloud Foundation หรือ VCF 9.1 อย่างเป็นทางการ หวังยกระดับ Private Cloud ให้เป็นแพลตฟอร์มที่บริหารจัดการได้ง่าย คุ้มค่าต่อการลงทุน และมาพร้อมกับระบบรักษาความปลอดภัยที่แข็งแกร่งตั้งแต่ระดับโครงสร้างพื้นฐาน …