Granite 3.1 เป็นโมเดลโอเพ่นซอร์สจาก IBM ใหม่ล่าสุดที่ช่วยเสริมศักยภาพในด้าน Generative AI ระดับองค์กร

Granite 3.1 มาพร้อมกับความสามารถในการประมวลผลมากขึ้น เทียบได้ว่ามีการเข้าใจคำศัพท์ภาษาอังกฤษได้ถึง 85,000 คำเนื่องจากรองรับ Token ได้ถึง 128,000 Token เหนือกว่า ChatGPT 3 ที่ทำได้เพียง 2,000 Token นอกจากนี้ IBM ยังคุยว่าโมเดล Granite 8B Instruct model ยังมีประสิทธิภาพเหนือกว่า Google Gemma 2, Meta LIama 3.1 และ Qwen 2.5 อ้างอิงจาก OpenLLM Leaderboard ของ HuggingFace
โดย Granite 3.1 ประกอบด้วยโมเดลหลายแบบซึ่ง Granite 2B และ 8B จะเน้นไปในเรื่องของ Text ที่ผ่านการเรียนรู้ข้อมูลมาถึง 12 ล้านล้าน Token และถูกออกแบบมาให้รองรับ RAG และกรณีการใช้เครื่องมือ เช่น การสร้างโค้ด แปล และแก้ไขบั๊ก ในขณะที่โมเดล Mixture of Experts ถูกสอนด้วยข้อมูลกว่า 10 ล้านล้าน Token ซึ่ง IBM ชี้ว่าโมเดลนี้เหมาะกับการใช้งานบนอุปกรณ์ที่ทำให้มี Latency ต่ำ
นอกจากนี้โมเดล Granite 3.1 ยังได้เพิ่มความสามารถในเรื่องของฟังก์ชันประมวลผลรูปและให้ผลลัพธ์ข้อความ เหมาะสำหรับธุรกิจที่ทำเกี่ยวกับกราฟฟิค รวมไปถึงความสามารถในภาษาต่างๆที่ได้รับการปรับปรุงให้ดียิ่งขึ้น เช่น เยอรมัน สเปน ฝรั่งเศส ญี่ปุ่น โปรตุเกส อาราบิค เช็ค อิตาเลียน เกาหลี ดัชซ์ และจีน ทั้งนี้ Granite อยู่บนคอนเซปต์ความเป็นโอเพ่นซอร์สภายใต้ Apache 2
ในด้านการใช้งานเริ่มต้นได้ผ่าน Watsonx, Google Vertex AI, Hugging Face, Ollama, Replicate และ NVIDIA NIM โดย IBM หวังว่าจะช่วยให้เกิดการใช้ Generative AI ในภาคองค์กรมากยิ่งขึ้น