จากแหล่งข่าว The Information เผยว่ายักษ์ใหญ่ Amazon อาจจะมีการพัฒนาโมเดล Multimodal Large Language Model ที่สามารถประมวลผลได้ทั้งข้อความ ภาพ และวีดีโอ ซึ่งคาดว่าน่าจะเปิดตัวในงาน AWS re:Invent สัปดาห์หน้านี้

จากปีที่แล้ว แหล่งข่าว Reuters รายงานว่าทาง Amazon ได้มีการลงทุนหลายล้านเหรียญในการเทรนโมเดล LLM ภายใต้ชื่อ Olympus ที่มีขนาด 2 ล้านล้านพารามิเตอร์ ซึ่งในปีนี้ก็มีโอกาสที่ทาง Amazon จะเปิดตัวโมเดลดังกล่าวออกมา
แม้ว่าสิ่งที่ The Information รายงานออกมานั้นจะไม่ได้ชัดเจนว่าเป็น Olympus เวอร์ชันใหม่หรือว่าเป็นระบบแบบใหม่เลยก็ตาม แต่คาดว่าน่าจะเปิดตัวโมเดลใหม่ที่จะสามารถประมวลผลแบบ Multimodal Model ได้ในงาน AWS re:Invent ต้นสัปดาห์หน้านี้ และคาดว่าน่าจะสามารถเข้าถึงได้ผ่าน Amazon Bedrock บน AWS
โดยจากรายงานชี้ให้เห็นว่า โมเดลใหม่ที่จะเปิดตัวนี้จะสามารถสืบค้นในคลังวีดีโอเพื่อส่งผลลัพธ์เป็นคลิปวีดีโอที่ต้องการได้ตามที่สืบค้นด้วยภาษาธรรมชาติ หรือว่าช่วยให้องค์กรในอุตสาหกรรมพลังงานสามารถวิเคราะห์ข้อมูลทางธรณีวิทยา (Geological Data) ได้ด้วย
สำหรับผู้ที่สนใจรับชมงาน AWS re:Invent สามารถ Register เพื่อเตรียมเข้าชมแบบออนไลน์ได้ที่นี่
ที่มา: https://siliconangle.com/2024/11/28/amazon-reportedly-develops-new-multimodal-language-model/