Tag Archives: ai inference

Google Cloud Run ประกาศรองรับการทำ AI Inference ด้วย GPU Nvidia L4

Google Cloud ประกาศเพิ่มการรองรับ GPU Nvidia L4 สำหรับ Google Cloud Run แพลตฟอร์ม Serverless เพื่อช่วยให้นักพัฒนาสามารถรันแอปพลิเคชัน AI บน Cloud ได้ง่ายและรวดเร็วยิ่งขึ้น

Read More »

Ampere จับมือ Qualcomm พัฒนาโซลูชันฮาร์ดแวร์สำหรับทำ AI Inference

Ampere จับมือ Qualcomm พัฒนาโซลูชันฮาร์ดแวร์สำหรับทำ AI Inference แบบประหยัดพลังงาน

Read More »

Intel เปิดตัว Gaudi 3 ชิปประมวลผล AI

Intel เปิดตัว Gaudi 3 ชิปประมวลผล AI รุ่นใหม่ ประสิทธิภาพดีขึ้น 4 เท่า

Read More »

NVIDIA เปิดตัว TensorRT-LLM ช่วยเร่งความเร็วการทำ Inference สำหรับ Large Language Model

NVIDIA เปิดตัว TensorRT-LLM ช่วยเร่งความเร็วการทำ Inference สำหรับ Large Language Model บน NVIDIA H100 GPU

Read More »

MLCommons ออกรายงานผลทดสอบ MLPerf Inference benchmark ล่าสุด

MLCommons รายงานผลทดสอบ MLPerf Inference benchmark ฉบับล่าสุด ประกอบด้วยผลทดสอบมากกว่า 5,300 รายการ

Read More »