
Akamai ผู้ให้บริการ Cloud Computing และ Cybersecurity ชั้นนำระดับโลก ล่าสุดได้เปิดตัว Akamai Cloud Inference เพื่อสนับสนุนองค์กรที่ต้องการรันโมเดล Predictive AI หรือ LLM ได้อย่างมีประสิทธิภาพ เข้าใกล้ Edge มากยิ่งขึ้น พร้อมส่งมอบ Throughput ได้ดีขึ้นกว่า 3 เท่า ลด Latency ลงได้สูงสุดถึง 2.5 เท่า
โดย Akamai Cloud Inference ทำงานอยู่บน Akamai Cloud แพลตฟอร์มที่มีการกระจายตัวมากที่สุดแห่งหนึ่งของโลก โดยมี Server อยู่มากกว่า 4,200 Points of Presence ครอบคลุมกว่า 130 ประเทศทั่วโลก ซึ่งจะช่วยจัดการกับข้อจำกัดที่รวมศูนย์โมเดลไว้ที่ Cloud ศูนย์กลางได้
ด้วยโซลูชันใหม่ของ Akamai Cloud Inference นี้ จะช่วยสนับสนุนให้ Platform Engineer และนักพัฒนาระบบที่ Build และ Run แอปพลิเคชัน AI สามารถนำ Workload เข้าใกล้ End User ได้ใกล้มากขึ้น ซึ่งจะทำให้สามารถส่งมอบ Throughput ได้ดีขึ้น 3 เท่า ในขณะที่สามารถลด Latency ลงได้สูงสุดถึง 2.5 เท่า ซึ่งจะช่วยให้องค์กรธุรกิจประหยัดค่าใช้จ่ายในการทำ AI Inference และ Agentic AI ได้สูงสุดถึง 86%
ภายใน Akamai Cloud Inference จะประกอบไปด้วยส่วนของ Compute, Data Management, Containerization, Edge compute ที่จะสนับสนุนให้องค์กรสามารถส่งมอบประสบการณ์ที่ดีขึ้นในการใช้งานแอปพลิเคชัน AI รายละเอียดเพิ่มเติมเกี่ยวกับ Akamai Cloud Inference สามารถอ่านได้ที่เว็บไซต์ของ Akamai