Andrew V. Sutherland ศาสตราจารย์ทางด้านคณิตศาสตร์แห่ง MIT ได้ใช้ Google Compute Engine มากถึง 220,000 Cores เพื่อประมวลผลงาน High Performance Computing (HPC) ซึ่งทาง Google ได้ยกให้เป็นงานประมวลผลครั้งที่ใหญ่ที่สุดเท่าที่เคยมีมาของ Google Cloud ในส่วนของ Compute Engine ไปแล้ว
การประมวลผลครั้งนี้ใช้ Preemptible VM นั้นเป็น Instance ราคาถูกที่มีอายุสั้นสำหรับใช้ในการประมวลผลแบบ Batch หรืองานแบบ Fault Tolerant โดยเฉพาะ ซึ่งสามารถทำงานต่อเนื่องได้ไม่เกิน 24 ชั่วโมงเท่านั้น และจะมีราคาถูกกว่า VM แบบปกติถึง 80% ทำให้การประมวลผลประสิทธิภาพสูงในบางรูปแบบสามารถใช้ VM ในลักษณะนี้เพื่อประหยัดค่าใช้จ่ายได้เป็นอย่างดี
งานประมวลผลในลักษณะนี้ไม่ใช่ครั้งแรกของ Sutherland โดยก่อนหน้านี้เขาได้ใช้ Compute Engine เมื่อปี 2015 โดยเปิด Instance ขนาด 32-core ขึ้นมาจำนวน 2,250 เครื่อง เพื่อประมวลผลด้วย CPU Time เป็นระยะเวลา 60 ปีจนเสร็จภายในบ่ายวันเดียวเท่านั้น ซึ่งก็แน่นอนว่าต้องอาศัยความรู้ในการทำ Parallel Computing และการวางแผนในการแบ่งงานประมวลผลเป็นอย่างดีจึงจะสามารถทำการประมวลผลในลักษณะนี้ได้สำเร็จ
ถือได้ว่าการมาของ Cloud ก็เริ่มเปลี่ยนงาน HPC ในภาคการศึกษาไปเยอะทีเดียวครับ
ส่วนตัวงานวิจัยที่นำไปคำนวนในครั้งนี้ Google ได้เขียนอธิบายเอาไว้แล้วครับ ผู้ที่สนใจลองอ่านดูจากในที่มาได้เลย