Cloudflare เปิดตัวชุด AI Platform ใหม่ ที่ออกแบบมาสำหรับนักพัฒนาในองค์กรเพื่อสร้าง AI Application ให้เริ่มต้นใช้งานได้อย่างรวดเร็ว นอกจากนี้ยังรองรับการขยายขนาดได้ผ่านการใช้งาน Cloudflare Network โดยโซลูชันแบ่งออกเป็น 3 ส่วน ดังนี้
ช่วยให้นักพัฒนาสามารถนำโมเดล AI มาทำงานบน Cloudflare Global Network ได้ โดย CLoudflare จะให้บริการ Infrastucture ที่มาพร้อม GPU เพื่อใช้เร่งความเร็วในกระบวนการทำ AI Inference พร้อมมีเครื่องมือช่วยในการทำ Compliance มาอย่างครบครัน ปัจจุบันมีระบบ Model Catalog ให้พัฒนาสามารถเลือกโมเดลที่ต้องการใช้งานได้ เช่น LLM , Speech-to-Text, Image Classification, และ Sentiment Analysis
ระบบ Ventor Database สำหรับสร้าง Full-stack AI Application ช่วยในการทำ Indexing ข้อมูลที่ได้จากโมเดลบน Workers AI รองรับการทำ Query หรือเก็บข้อมูลลงบน R2 ระบบ Object Storage จุดเด่นคือทำงานบน Cloudflare Global Network ทำให้ข้อมูลจะถูกเก็บอยู่ใกล้กับผู้ใช้งานมากที่สุด ช่วยลด Latency ระหว่างการทำ Inference
ทำหน้าที่เป็น Gateway สำหรับการเรียกใช้งาน AI ช่วยให้นักพัฒนาสามารถตรวจสอบภาพรวมการทำงานได้ เช่น จำนวน Request, จำนวนผู้ใช้งาน, ค่าใช้จ่ายของแอพพลิเคชัน, และระยะเวลาของแต่ละ Request นอกจากนี้ยังรองรับการทำ Caching และทำ Rate Limiting กับทราฟฟิกของการใช้งาน AI ในองค์กรได้
ที่มา: https://www.cloudflare.com/press-releases/2023/cloudflare-launches-workers-ai-deploy-ai-inference/