หลายคนคงเคยเห็นคำว่า AI Inference ตามประกาศหน้าข่าวเกี่ยวกับ AI โดยเฉพาะประสิทธิภาพในด้านของฮาร์ดแวร์ว่าจะช่วยกระบวนการ AI Inference ได้ดีขึ้นกี่เท่าหรือกี่ % เทียบกับรุ่นก่อนหน้าหรือผลิตภัณฑ์ของคู่แข่งแล้ว AI Inference มีความหมายอย่างไรกันแน่มาติดตามกันได้ในบทความนี้
Read More »Google Cloud Run ประกาศรองรับการทำ AI Inference ด้วย GPU Nvidia L4
Google Cloud ประกาศเพิ่มการรองรับ GPU Nvidia L4 สำหรับ Google Cloud Run แพลตฟอร์ม Serverless เพื่อช่วยให้นักพัฒนาสามารถรันแอปพลิเคชัน AI บน Cloud ได้ง่ายและรวดเร็วยิ่งขึ้น
Read More »Ampere จับมือ Qualcomm พัฒนาโซลูชันฮาร์ดแวร์สำหรับทำ AI Inference
Ampere จับมือ Qualcomm พัฒนาโซลูชันฮาร์ดแวร์สำหรับทำ AI Inference แบบประหยัดพลังงาน
Read More »Intel เปิดตัว Gaudi 3 ชิปประมวลผล AI
Intel เปิดตัว Gaudi 3 ชิปประมวลผล AI รุ่นใหม่ ประสิทธิภาพดีขึ้น 4 เท่า
Read More »NVIDIA เปิดตัว TensorRT-LLM ช่วยเร่งความเร็วการทำ Inference สำหรับ Large Language Model
NVIDIA เปิดตัว TensorRT-LLM ช่วยเร่งความเร็วการทำ Inference สำหรับ Large Language Model บน NVIDIA H100 GPU
Read More »MLCommons ออกรายงานผลทดสอบ MLPerf Inference benchmark ล่าสุด
MLCommons รายงานผลทดสอบ MLPerf Inference benchmark ฉบับล่าสุด ประกอบด้วยผลทดสอบมากกว่า 5,300 รายการ
Read More »