ที่งานสัมมนา SIGGRAPH ผู้นำตลาดด้าน AI อย่าง NVIDIA ได้ออกประกาศเกี่ยวกับกรณีการใช้งานใหม่ๆของ NIM และบริการ inference-as-a-service ที่ร่วมมือกับพันธมิตรสำคัญอย่าง Hugging Face

NIM หรือ container ที่รวบเอาซอฟต์แวร์สำหรับรันงานโมเดล AI ได้มีประกาศเกี่ยวกับความสามารถใหม่ที่ถูกปรับแต่งให้ใช้เป็นเหมือนผู้ช่วยและเชื่อมต่อกับ RAG (retrieval-augmented generation)
NVIDIA ชี้ให้เห็นถึงพัฒนาการของ NIM ที่ได้เข้าไปในอุตสาหกรรมต่างมากมาย โดยภายในได้บรรจุโมเดลชื่อดังจากค่ายต่างๆและโอเพ่นซอร์ส โดยประกาศใหม่ได้กล่าวถึงโมเดลล่าสุดจากทาง Meta LIama 3.1 และ Mistral NeMo 12B รวมถึงความสามารถด้าน Speech Recognition ที่พัฒนาโดย NVIDIA ร่วมกับ Suno.ai ซึ่งตอบโจทย์ด้านแชทบอท
นอกจากนี้ NIM ยังมีบทบาทในอุตสาหกรรมหุ่นยนต์และชีววิทยา รวมถึงกรณีใช้งานในแง่มุมอื่นๆ ดังนี้
- แปลงการจำลอง 3 มิติข้ามกันได้ด้วย Open USD(Universal Scene Description)
- ตอบโจทย์งาน Render กราฟฟิคได้ด้วย Edify NIM ที่ร่วมกับคลังรูปที่ชื่อ Getty Image
- ออก Omniverse SDK สำหรับ Apple Vision Pro
ในกรณีของความร่วมมือกับ Hugging Face ได้เผยถึง inference as a Service ที่อยู่บน DGX Cloud ด้วยการทำงานประสิทธิภาพอย่างสูงแต่ยังไม่สามารถเข้าถึงโมเดลทั้งหมดใน Hugging Face ที่มีกว่า 750,000 โมเดล
ที่มา : https://www.zdnet.com/article/nvidia-announces-raft-of-nims-to-speed-up-gen-ai-apps/
TechTalkThai ศูนย์รวมข่าว Enterprise IT ออนไลน์แห่งแรกในประเทศไทย






