เมื่อพูดถึง AI วินาทีนี้เกมของเทคโนโลยีต้องเทไปที่ NVidia เป็นส่วนใหญ่ เช่นกันกับ HPE ที่เผยถึงความร่วมมือนำเสนอโซลูชัน Private Cloud for AI ที่ออกแบบมาเพื่องาน AI โดยเฉพาะ

โปรเจ็กต์ AI ในองค์กรยังมีอุปสรรคหลายด้านจากองค์กรประกอบที่กระจัดกระจายทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ ด้วยเหตุนี้เอง HPE จึงได้จับมือกับ NVidia เพื่อออกแบบโซลูชันที่เกิดมาเพื่องาน AI โดยเฉพาะที่เรียกว่า Private Cloud for AI
ในฝั่งของ NVidia แน่นอนว่าหนีไม่พ้นการนำเสนอแพลตฟอร์ม NVidia Enterprise ที่มาพร้อมกับ NIM (Containerized) เพื่อสนับสนุนด้านการพัฒนาและ deploy งานได้อย่างครบวงจร ประกอบกับเทคโนโลยีด้าน GPU และ Spectrum-X Ethernet Switch ที่ NVidia คิดค้นขึ้นพิเศษสำหรับงาน AI ทำความเร็วได้รู้กว่าระบบเครือข่ายทั่วไป
ขณะที่ HPE มาพร้อมกับ Greenlake for File Storage ที่ได้รับการทดสอบและรับรองร่วมกับ NVidia ว่าทำงานเข้ากับโซลูชัน DGX BasePOD และ OVX Storage ของ NVidia ได้ รวมไปถึง Proliant Server และแพลตฟอร์มการบริการจัดการ Greenlake Cloud ของตน ไปจนถึงการที่ OpsRamp (ซื้อกิจการมา) ได้ขยายการรองรับไปถึงเทคโนโลยีฝั่งไ NVidia ได้
มุมของธุรกิจทั้งสองจะมีการร่วมกันทั้งภาคส่วนของทีมขาย ช่องทางพาร์ทเนอร์ การจัดอบรม และมี SI ที่มีความพร้อมระดับสากล
HPE ได้คุยถึงโซลูชัน Private Cloud ของตนว่าพร้อมสำหรับงาน Inference, Fine-tune และ RAG (Gen AI) ซึ่งตอบโจทย์เรื่องของความมั่นคงปลอดภัย ความเป็นส่วนตัว ในการใช้ ควบคุม และปกป้องข้อมูลที่เป็นขององค์กรเอง
หากจะเจาะลึกให้จับต้องได้อีกนิดก็คือ
- ProLaint DL384 Gen 12 จะสามารถรองรับ NVidia GH200 NVL2 ได้ 2 ใบ เหมาะสำหรับลูกค้าที่มุ่งเน้น LLM (large language model)
- ProLiant DL380a Gen 12 จะรองรับ NVidia H200 NVL ได้ถึง 8 ใบ พร้อมขยายการใช้งานในอนาคต
- Cray XD670 รองรับ NVidia H200 NVL Tensor Core GPU ได้ถึง 8 ใบสำหรับสร้างโมเดล LLM โดยเฉพาะ
TechTalkThai ศูนย์รวมข่าว Enterprise IT ออนไลน์แห่งแรกในประเทศไทย






