Google Cloud ประกาศเพิ่มการรองรับ GPU Nvidia L4 สำหรับ Google Cloud Run แพลตฟอร์ม Serverless เพื่อช่วยให้นักพัฒนาสามารถรันแอปพลิเคชัน AI บน Cloud ได้ง่ายและรวดเร็วยิ่งขึ้น
Read More »Ampere จับมือ Qualcomm พัฒนาโซลูชันฮาร์ดแวร์สำหรับทำ AI Inference
Ampere จับมือ Qualcomm พัฒนาโซลูชันฮาร์ดแวร์สำหรับทำ AI Inference แบบประหยัดพลังงาน
Read More »Intel เปิดตัว Gaudi 3 ชิปประมวลผล AI
Intel เปิดตัว Gaudi 3 ชิปประมวลผล AI รุ่นใหม่ ประสิทธิภาพดีขึ้น 4 เท่า
Read More »NVIDIA เปิดตัว TensorRT-LLM ช่วยเร่งความเร็วการทำ Inference สำหรับ Large Language Model
NVIDIA เปิดตัว TensorRT-LLM ช่วยเร่งความเร็วการทำ Inference สำหรับ Large Language Model บน NVIDIA H100 GPU
Read More »MLCommons ออกรายงานผลทดสอบ MLPerf Inference benchmark ล่าสุด
MLCommons รายงานผลทดสอบ MLPerf Inference benchmark ฉบับล่าสุด ประกอบด้วยผลทดสอบมากกว่า 5,300 รายการ
Read More »