NVIDIA AI Computing by HPE เป็นความก้าวหน้าในความสัมพันธ์ล่าสุดของทั้งสองบริษัทเทคโนโลยีใหญ่ที่หวังผลักดันโซลูชัน AI ระดับองค์กรแบบพร้อมใช้สำหรับทุกความต้องการ

แนวคิดของ NVIDIA AI Computing by HPE ก็คือการผสานจุดเด่นของแต่ละฝ่าย ทั้งในแง่ของฮาร์ดแวร์และซอฟต์แวร์ที่แต่ละค่ายมี โดยไอเดียก็คือการผนึกโซลูชันเข้าร่วมกัน ประกบกับบริการดูแลหลังการขาย ซอฟต์แวร์เริ่มต้น มอนิเตอร์ Workload และการจัดการร่วมกันได้นั่น นำไปสู่การเปิดตัวโซลูชันใหม่หลายตัวเพื่อสนับสนุนภาพรวม ดังนี้
1.) HPE Server ที่อาศัยขุมพลังจากสถาปัตยกรรม NVIDIA Blackwell
มีหลายความเคลื่อนไหวสำหรับเซิร์ฟเวอร์ HPE ProLiant ดังนี้
- นำพลังประมวลผลของ NVIDIA HGX 300 มาสู่ ProLiant Compute XD ซึ่งเหมาะสำหรับงานประเภท Agentic AI และ Reasoning Inference
- ผสานพลังจาก NVIDIA GB200 Grace Blackwell NVL4 Superchips หรือโซลูชันเซิรฟ์เวอร์ที่มาพร้อมกับ Grace CPU และ Blackwell GPU มาทำงานกับ ProLiant Compute DL384b Gen12 ตอบโจทย์สำหรับงาน HPC และ AI เช่น งานวิทยาศาสตร์หรือการเทรนข้อมูลให้ graph neural network เป็นต้น
- เพิ่มประสิทธิภาพของ ProLiant Compute DL380a Gen12 ด้วยการ์ด RTX PRO 6000 Blackwell Server Edition ตอบโจทย์งาน Inference ในองค์กร

ในหัวข้อเรื่องของการประมวลผลยังพูดถึงชุดประมวลผล NVIDIA NVIDIA GB300 NVL72 โดยจะมาเป็นตู้แร็กที่มีชิป Blackwell Ultra 72 ตัว และ Arm-based CPU (NVIDIA Grace) 36 ตัว โดยระบบผ่านการปรับแต่มาเรียบร้อยพร้อมใช้ เชื่อมต่อผ่าน InfiniBand หรือ Spectrum-X Ethernet ซึ่งมีบริการดูแลจาก HPE ได้โดยแร็กนี้ใช้ระบบ Liquid Cooling ที่ HPE มีความเชี่ยวชาญ
2.) ความปลอดภัยแบบครบวงจรใน HPE ProLiant Gen12
HPE ProLiant Gen12 ยังได้รับการโฆษณาในแง่ของความมั่นคงปลอดภัยในส่วนต่างๆตั้งแต่การมีชิปที่การันตีความปลอดภัย (Root of Trust) และการประมวลผลบนซีพียูที่มีฟีเจอร์ Secure Enclave ป้องกันการล้วงข้อมูล รวมถึงการป้องกันภัยระดับเฟิร์มแวร์ตั้งแต่ออกจากโรงงาน แถมช่องทางควบคุมอย่าง iLO 7 ยังไปถึงการป้องกัน Post-quantum แล้วตามมาตรฐาน FIPS 140-3
3.) Modular Data Center

HPE ยังได้ต่อยอดความเชี่ยวชาญในเทคโนโลยี Liquid Cooling ที่พิสูจน์แล้วจากอันดับของ Green500 ที่ตนครอบครอง 8 ตำแหน่งจาก 15 ลำดับสูงสุด โดยเปิดตัวโซลูชัน AI Mod POD ที่ออกแบบมาในลักษณะโมดูลที่เสริมด้วยเทคโนโลยีสิทธิบัตรของตน ‘Adaptive Cascade Cooling’ โดยโมดูลรองรับทั้งแบบลมระบายหรือของเหลว
4.) ความโดดเด่นจากการผสานโซลูชัน
ในประเด็นของการมอนิเตอร์โซลูชัน HPE OpsRamp หรือระบบ Infrastructure Monitoring ได้ถูกปรับปรุงให้มอนิเตอร์และปรับแต่งประสิทธิภาพส่วนของ NVIDIA GPU ได้แล้ว
อีกหนึ่งประเด็นจากสารประกาศคือการที่ HPE Private Cloud AI platform สามารถรองรับ NVIDIA AI Data Platform ได้แล้ว โดยมีความสามารถแบบ Self-service จาก Greenlake Cloud นอกจากนี้ยังมีเตรียมสภาพแวดล้อมสำหรับนักพัฒนาให้แล้ว ตลอดจนมุมด้าน Data Fabric ที่รองรับงานด้านข้อมูลทุกรูปแบบทั้ง Unstructured, Structured หรือ Streaming
ในขณะที่ฝั่ง NVIDIA มีความแข็งแกร่งเรื่องซอฟต์แวร์ AI ที่เหมือนมีพิมพ์เขียวพร้อมปรับแต่ในงานได้ที่เรียกว่า AI-Q Blueprint ที่มี Use Case มากมายเช่น Digital Twin หรือ Multimodal PDF Data Extraction และอื่นๆ รวมถึง NIM Container ที่ปรับจูนมาสำหรับ Reasoning AI model แล้ว