
หลังจาก OpenAI ได้เปิดตัวโมเดล OpenAI o3-mini แบบ Generally Available ปลายสัปดาห์ที่แล้ว Microsoft ก็ได้ประกาศพร้อมให้บริการโมเดลบน Microsoft Azure OpenAI Service อย่างรวดเร็ว ที่จะช่วยในเรื่องต้นทุนการใช้ได้อย่างมีนัยสำคัญ ในขณะที่ขีดความสามารถในการตอบสนองนั้นดีขึ้นกว่าเดิม
หลังจาก DeepSeek-R1 ได้ถูกปล่อยออกมาสู่เวทีโลก ทาง OpenAI จึงได้ปล่อยโมเดลอย่าง o3-mini ออกมาสู้ศึกครั้งนี้ ซึ่งด้วยขีดความสามารถที่ทรงพลังในการประมวลผลด้วยเหตุผลแทบไม่แพ้โมเดลรุ่นพี่ก่อนหน้า จึงทำให้ o3-mini คืออีกทางเลือกหนึ่งในการนำไปปรับใช้งานเพื่อทำให้แอปพลิเคชัน AI ขององค์กรมีความเร็วมากขึ้น ในขณะที่มีค่าใช้จ่ายที่ลดลงได้
และ Microsoft ก็ไม่รอช้า ได้นำเอาโมเดล OpenAI o3-mini ขึ้นพร้อมให้บริการบน Microsoft Azure OpenAI Service เป็นที่เรียบร้อย ซึ่งหากองค์กรต้องการโมเดลการให้เหตุผลใหม่ล่าสุดจาก OpenAI ที่มีพัฒนาการมากกว่าโมเดล o1 ที่ออกมาก่อนหน้า ไม่ว่าจะเป็นการจัดวางโครงสร้างผลลัพธ์ (Structured Output) ได้ มีการสนับสนุนเ Tool และ Functions ภายนอกต่าง ๆ ได้เพื่อหนุนการทำ Automation ที่ดีขึ้น o3-mini คือตัวเลือกที่ควรพิจารณาปรับใช้แทน
รายละเอียดเพิ่มเติมเกี่ยวกับการให้บริการ OpenAI o3-mini บน Microsoft Azure OpenAI Service สามารถอ่านได้ที่บล็อกโพสของ Microsoft