
Cerebras สตาร์ตอัปฮาร์ดแวร์ AI ที่ค่อย ๆ ขึ้นมาท้าทาย NVIDIA มากขึ้นเรื่อย ๆ ในตลาด AI ล่าสุดได้ประกาศการขยาย AI Data Center อย่างมีนัยสำคัญในอีก 6 ประเทศ พร้อมกับประกาศความร่วมมือระดับองค์กรอีก 2 แห่ง ที่อาจทำให้บริษัทกำลังจะกลายเป็นอีกหนึ่งในผู้นำบริการ AI Inference ความเร็วสูง
โดย Cerebras ได้ประกาศเพิ่ม AI Data Center ใหม่อีก 6 แห่งในภูมิภาคอเมริกาเหนือและยุโรป ซึ่งเพิ่มขีดความสามารถในการทำ Inference ได้มากขึ้นราว 20 เท่า หรือกว่า 40 ล้าน Token Per Second ทั้งนี้ 85% ของขีดความสามารถทั้งหมดนั้นอยู่ในสหรัฐอเมริกา
การขยาย Data Center ของ Cerebras ครั้งนี้ได้ทำให้เห็นถึงการเดิมพันที่ทะเยอทะยานของบริษัทในตลาด High-Speed AI Inference หรือขั้นตอนการนำ AI ที่ฝึกฝนเสร็จสิ้นแล้วมาใช้งานในโลกความเป็นจริงเพื่อสร้างผลลัพธ์ ซึ่งเติบโตอย่างมากเพราะหลายบริษัทกำลังมองหาทางเลือกที่รวดเร็วกว่าโซลูชันที่ใช้ GPU จาก NVIDIA
นอกจากนี้ Cerebras ได้ประกาศความร่วมมือกับ Hugging Face แพลตฟอร์มนักพัฒนาระบบ AI ยอดนิยม และ AlphaSense แพลตฟอร์มข้อมูลเชิงวิเคราะห์การตลาดที่นิยมใช้กันอย่างมากในอุตสาหกรรมการเงิน
โดย Hugging Face จะทำให้นักพัฒนากว่า 5 ล้านคนสามารถเข้าถึง Cerebras Inference ได้ภายในคลิกเดียว ส่วน AlphaSense จะใช้ Cerebras ในการเร่งขีดความสามารถในการสืบค้นข้อมูลเชิงวิเคราะห์การตลาดด้วย AI ให้เร็วยิ่งขึ้น
สิ่งที่เกิดขึ้นเหล่านี้เรียกได้ว่าเป็นก้าวสำคัญของ Cerebras ที่กำลังพิสูจน์ตัวเองในตลาดฮาร์ดแวร์ AI ที่กำลังร้อนแรง ว่าจะสามารถสู้กับเจ้าตลาดอย่าง NVIDIA ได้หรือไม่ หากแต่จุดสำคัญคือดูเหมือนว่าตอนนี้ตลาด AI กำลังแข่งขันกันในการทำ High-Speed AI Inference กันแล้วหลังจากได้เห็นลงทุนโครงสร้างพื้นฐานในเรื่องดังกล่าวของ Cerebras ในครั้งนี้