Alibaba เปิดตัว Qwen3.5 โมเดล AI รุ่นใหม่ล่าสุดแบบ Mixture of Experts ขนาด 397 พันล้าน parameters ที่สามารถทำคะแนน benchmark บางตัวได้เหนือกว่า GPT-5.2 และ Claude 4.5 Opus โดยเปิดให้ใช้งานแบบ Open Source บน Hugging Face แล้ว

Qwen3.5 เป็นโมเดลแบบ Mixture of Experts (MoE) ประกอบด้วย neural network หลายตัวที่ถูก optimize สำหรับงานแต่ละประเภท เมื่อได้รับ prompt โมเดลจะใช้งานเพียง 10 neural network จากทั้งหมด โดยมี parameters ที่ถูก activate เพียง 17 พันล้านจากทั้งหมด 397 พันล้าน parameters วิธีการนี้ช่วยให้ประหยัดทรัพยากรฮาร์ดแวร์มากกว่าการรัน input ผ่าน artificial neurons ทั้งหมด โมเดลรองรับ context ได้ถึง 262,144 tokens โดย default และสามารถเพิ่มได้ถึงเกือบ 4 เท่าด้วยการ customize รองรับภาษากว่า 210 ภาษาและสำเนียง รวมถึงสามารถประมวลผลภาพได้แบบ multimodal
Alibaba ได้เพิ่ม optimization หลายอย่างเพื่อเพิ่มประสิทธิภาพให้กับ Qwen3.5 โดยปกติ attention heads ของ LLM จะ scale แบบ quadratic หมายความว่าเมื่อข้อมูลใน prompt เพิ่มขึ้น 2 เท่า RAM ที่ต้องใช้จะเพิ่มขึ้น 4 เท่า แต่ Qwen3.5 ใช้การผสมผสาน quadratic attention heads กับ linear attention heads ที่ใช้ memory น้อยกว่ามาก นอกจากนี้ยังใช้เทคโนโลยี gated delta network ที่รวมเทคนิค gating และ delta rule เข้าด้วยกัน ซึ่งช่วยให้โมเดลสามารถลบข้อมูลที่ไม่จำเป็นออกจาก memory และปรับ parameters ได้อย่างมีประสิทธิภาพระหว่างการ training
จากการทดสอบกับ benchmark กว่า 30 รายการ Qwen3.5 สามารถเอาชนะทั้ง GPT-5.2 และ Claude 4.5 Opus บน IFBench ซึ่งวัดความสามารถในการทำตามคำสั่งของผู้ใช้งาน ในบาง benchmark เช่น HMMT ที่วัดความสามารถด้าน reasoning โมเดลสามารถเอาชนะ Claude 4.5 Opus ได้ แต่ยังตามหลัง GPT-5.2 อยู่ สำหรับความสามารถด้าน multimodal Qwen3.5 ยังสามารถทำคะแนนได้เหนือกว่า Qwen3-VL ซึ่งเป็นโมเดลที่ถูกสร้างมาเฉพาะสำหรับงานวิเคราะห์ภาพ ในหลาย visual reasoning และ coding benchmark
ที่มา: https://siliconangle.com/2026/02/16/alibaba-releases-multimodal-qwen3-5-mixture-experts-model/
TechTalkThai ศูนย์รวมข่าว Enterprise IT ออนไลน์แห่งแรกในประเทศไทย






