Tag Archives: ai inference

AI Inference คืออะไร?

หลายคนคงเคยเห็นคำว่า AI Inference ตามประกาศหน้าข่าวเกี่ยวกับ AI โดยเฉพาะประสิทธิภาพในด้านของฮาร์ดแวร์ว่าจะช่วยกระบวนการ AI Inference ได้ดีขึ้นกี่เท่าหรือกี่ % เทียบกับรุ่นก่อนหน้าหรือผลิตภัณฑ์ของคู่แข่งแล้ว AI Inference มีความหมายอย่างไรกันแน่มาติดตามกันได้ในบทความนี้

Read More »

Google Cloud Run ประกาศรองรับการทำ AI Inference ด้วย GPU Nvidia L4

Google Cloud ประกาศเพิ่มการรองรับ GPU Nvidia L4 สำหรับ Google Cloud Run แพลตฟอร์ม Serverless เพื่อช่วยให้นักพัฒนาสามารถรันแอปพลิเคชัน AI บน Cloud ได้ง่ายและรวดเร็วยิ่งขึ้น

Read More »

Ampere จับมือ Qualcomm พัฒนาโซลูชันฮาร์ดแวร์สำหรับทำ AI Inference

Ampere จับมือ Qualcomm พัฒนาโซลูชันฮาร์ดแวร์สำหรับทำ AI Inference แบบประหยัดพลังงาน

Read More »

Intel เปิดตัว Gaudi 3 ชิปประมวลผล AI

Intel เปิดตัว Gaudi 3 ชิปประมวลผล AI รุ่นใหม่ ประสิทธิภาพดีขึ้น 4 เท่า

Read More »

NVIDIA เปิดตัว TensorRT-LLM ช่วยเร่งความเร็วการทำ Inference สำหรับ Large Language Model

NVIDIA เปิดตัว TensorRT-LLM ช่วยเร่งความเร็วการทำ Inference สำหรับ Large Language Model บน NVIDIA H100 GPU

Read More »

MLCommons ออกรายงานผลทดสอบ MLPerf Inference benchmark ล่าสุด

MLCommons รายงานผลทดสอบ MLPerf Inference benchmark ฉบับล่าสุด ประกอบด้วยผลทดสอบมากกว่า 5,300 รายการ

Read More »