Alibaba Cloud ประกาศเปิดตัว Qwen2-VL โมเดล AI รุ่นใหม่ที่มีความสามารถในการวิเคราะห์วิดีโอและการสนทนาหลายภาษา พร้อมรองรับการทำงานกับวิดีโอความยาวมากกว่า 20 นาที
Qwen2-VL เป็นโมเดล AI ที่ Alibaba Cloud พัฒนาต่อยอดจาก Qwen-VL โดยใช้เวลาพัฒนานานกว่า 1 ปี โมเดลนี้มีความสามารถในการวิเคราะห์และทำความเข้าใจเนื้อหาวิดีโอ สรุปเนื้อหา ตอบคำถามเกี่ยวกับวิดีโอ และสนทนาแบบต่อเนื่องได้แบบ Realtime นอกจากนี้ยังสามารถทำงานร่วมกับเครื่องมือภายนอกเพื่อดึงข้อมูลต่างๆ เช่น สถานะเที่ยวบิน พยากรณ์อากาศ และติดตามพัสดุได้
ในด้านเทคนิค Qwen2-VL ใช้โมเดล Vision Transformer (ViT) ที่มีพารามิเตอร์ประมาณ 600 ล้านตัว เพื่อจัดการกับข้อมูลภาพและวิดีโอพร้อมกัน และมีการเพิ่มความสามารถ Native Dynamic Resolution และระบบ Multimodal Rotary Position Embedding (M-ROPE) เพื่อรองรับการทำงานกับข้อมูลหลากหลายรูปแบบ อย่างไรก็ตาม โมเดลนี้ยังมีข้อจำกัดบางประการ เช่น ไม่สามารถดึงข้อมูลเสียงจากไฟล์วิดีโอได้ และข้อมูลที่ใช้ฝึกฝนอัปเดตถึงเดือนมิถุนายน 2023 เท่านั้น
ปัจจุบัน Alibaba ได้เปิดให้ใช้งาน Qwen2-VL แบบโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 โดยมีให้เลือก 2 ขนาดคือ Qwen2-VL-2B และ Qwen2-VL-7B พร้อมเดโมบน Hugging Face สำหรับรุ่น 7 พันล้านพารามิเตอร์ บริษัทระบุว่าประสิทธิภาพของโมเดลนี้อยู่ในระดับแนวหน้าในหลายเกณฑ์ และความสามารถบางส่วนยังเหนือกว่าโมเดลแบบปิดอย่าง GPT-4 ของ OpenAI และ Claude 3.5-Sonnet ของ Anthropic อีกด้วย