9 แนวทางการเตรียม Data Center ให้พร้อมสำหรับประมวลผลระบบ AI

Network World ได้ออกมาสรุปถึง 9 แนวทางสำคัญที่เหล่าธุรกิจองค์กรต้องเตรียมตัว เพื่อปรับ Data Center ที่มีอยู่ให้รองรับ Workload ที่กินพลังงานมหาศาลอย่าง AI ให้ได้ในอนาคต

Credit: ShutterStock.com

อ้างอิงจากข้อมูลของ AFCOM โดยเฉลี่ยแล้วสำหรับ Data Center ภายในธุรกิจองค์กรทั่วไปนั้น พลังงานเฉลี่ยที่ใช้ต่อตู้ Rack 1 ตู้นั้นจะอยู่ที่ประมาณ 7 kW แต่สำหรับระบบ AI Application นั้นพลังงานที่ใช้เฉลี่ยต่อตู้ Rack อาจสูงขึ้นไปเกินกว่า 30kW เลยทีเดียว เนื่องจาก AI นั้นใช้พลังการประมวลผลที่สูงอีกทั้งยังต้องใช้ GPU จำนวนมากในการประมวลผลด้วยนั่นเอง และด้วยการใช้พลังงานที่สูงขึ้นนี้ ก็ย่อมทำให้ต้องเกิดความร้อนสูง และทำให้ระบบระบายความร้อนนั้นต้องมีประสิทธิภาพที่สูงขึ้นตามไปด้วย การ Optimize พลังงานและความร้อนที่เกิดขึ้นในระบบ AI นี้จึงกลายเป็นอีกหน้าที่ของ Data Center Engineer ด้วยในทุกวันนี้

Network World ได้สรุป 9 แนวทางที่เหล่าธุรกิจต้องปรับตัวเพื่อรองรับ AI ภายใน Data Center ของตนเองเอาไว้ดังนี้

1. พิจารณาถึงการใช้เทคโนโลยี Liquid Cooling

CoolIT Systems ระบุว่าการระบายความร้อนด้วยพัดลมนั้นจะเริ่มไม่มีประสิทธิภาพเมื่อระบบใช้พลังงานเกินกว่า 15 kW ในขณะที่การใช้ของเหลวในการระบายความร้อนนั้นจะมีประสิทธิภาพสูงกว่า และที่ผ่านมาก็มีผู้ผลิต Server ระดับองค์กรหลายรายที่พัฒนาโซลูชันการระบายความร้อนด้วยของเหลวมาให้ใช้งานกันแล้ว

2. ลด Resolution บน AI Workload ลงเมื่อเป็นไปได้

Hyperion Reseasrch ได้ออกมาระบุว่าหาก AI Workload มีการปรับลด Precision ที่ใช้ในการประมวลผลลงครึ่งหนึ่งหรือเหลือเพียง 1 ใน 4 ก็อาจทำให้ระบบ Data Center ที่มีอยู่เดิมนั้นพอจะรองรับ Workload ไหวและประหยัดพลังงานลงได้

3. แยกพื้นที่เฉพาะสำหรับ AI Workload

การเลือกพื้นที่สำหรับรองรับ AI Workload นั้นต้องเลือกพื้นที่ที่สามารถจ่ายพลังงานในปริมาณที่เพียงพอและระบายความร้อนได้ทัน ซึ่งก็อาจเป็นเพียงพื้นที่เพียงส่วนหนึ่งของ Data Center ก็ได้ และการออกแบบพื้นที่เฉพาะเพื่อรองรับ AI Workload ที่ต้องการพลังงานปริมาณมากและระบบระบายความร้อนที่ดีเป็นพิเศษ ก็อาจเป็นทางเลือกที่ดีกว่าการปรับปรุง Data Center ทั้งหมดในทีเดียว

4. กระจายระบบ AI ออกไป

อีกทางเลือกหนึ่งก็คือการกระจายระบบ AI ออกไปตามแต่ละตู้ Rack เพื่อไม่ให้เกิดการกินพลังงานและเกิดความร้อนสูงเกินไป ณ จุดใดจุดหนึ่งของ Data Center โดยตราบใดที่ระบบยังใช้พลังงานไม่ถึง 12 kW หรือ 15 kW ต่อตู้ Rack อยู่ ระบบระบายความร้อนทั่วๆ ไปก็ยังพอรับ Workload นั้นๆ ไหวอยู่ได้

5. ควบคุมลมร้อนและเย็นภายใน Data Center ให้ดี

การจัดการทิศทางการไหลของอากาศภายใน Data Center ให้มีประสิทธิภาพถือเป็นหัวใจสำคัญ เพื่อให้การระบายความร้อนเป็นไปอย่างมีประสิทธิภาพสูงสุด และรองรับ Workload ที่สร้างความร้อนปริมาณมหาศาลอย่าง AI ให้ได้

6. พิจารณาการใช้งาน Chimney Cabinet

การเลือกใช้ Chimney Cabinet ให้ลมร้อนลอยขึ้นไปด้านบนเองนั้นก็เป็นอีกทางเลือกหนึ่งที่ดีในการควบคุมการระบายความร้อน และด้วยแนวทางนี้การออกแบบให้ระบบมีความหนาแน่นสูงก็จะทำได้ง่ายขึ้น

7. วิเคราะห์ข้อมูลให้ใกล้กับตำแหน่งที่ข้อมูลถูกจัดเก็บอยู่

การรับส่งข้อมูลภายใน Data Center นั้นต้องอาศัยพลังงานมากกว่าที่คิด และอาจใช้พลังงานมากกว่าการประมวลผลข้อมูลโดยไม่ต้องมีการรับส่งข้อมูลมากกว่ากันถึง 100 เท่าได้เลยทีเดียว ดังนั้นการออกแบบระบบให้สามารถวิเคราะห์ข้อมูลได้โดยตรงโดยไม่ต้องรับส่งข้อมูลปริมาณมหาศาลผ่านระบบเครือข่ายนั้น ก็จะช่วยลดประเด็นด้านพลังงานลงได้

8. เช่าใช้ Data Center แทนการลงทุนเอง

การเช่าใช้ Data Center ที่ออกแบบมาเพื่อรองรับ AI Workload ได้นั้นอาจคุ้มค่ากว่าการลงทุนสร้างเอง ในขณะที่การเช่าใช้นั้นก็ยังมีข้อดีด้านความยืดหยุ่นในการเพิ่มขยายหรือลดขนาดของระบบในอนาคตได้อย่างอิสระอีกด้วย

9. ใช้งาน Server รุ่นใหม่ที่มีประสิทธิภาพสูงขึ้น

ปัจจุบันผู้พัฒนาเทคโนโลยีการประมวลผลนั้นต่างออกแบบ Hardware ให้มีประสิทธิภาพมากขึ้นและกินไฟน้อยลงเรื่อยๆ ดังนั้นการใช้ Server รุ่นใหม่ล่าสุดอยู่เสมอนั้นก็จะช่วยในประเด็นด้านประสิทธิภาพและการใช้พลังงานอย่างคุ้มค่าได้มากทีเดียว และการเลือกใช้ GPU, FPGA หรือ AI Accelerator อื่นๆ ให้เหมาะสมกับงานก็จะช่วยตอบโจทย์นี้ได้ดี ในขณะที่เทคโนโลยีของระบบ Storage อย่างเช่น NVMe-over-Fabric หรือ SCM นั้นก็จะมีราคาถูกมากขึ้น ทำให้ภาพรวมระบบ AI นั้นๆ จะมีค่าใช้จ่ายที่ถูกลงไปด้วย

ที่มา: https://www.networkworld.com/article/3454626/8-ways-to-prepare-your-data-center-for-ai-s-power-draw.html


About techtalkthai

ทีมงาน TechTalkThai เป็นกลุ่มบุคคลที่ทำงานในสาย Enterprise IT ที่มีความเชี่ยวชาญทางด้าน Network, Security, Server, Storage, Operating System และ Virtualization มารวมตัวกันเพื่ออัพเดตข่าวสารทางด้าน Enterprise IT ให้แก่ชาว IT ในไทยโดยเฉพาะ

Check Also

Netflix เปิด Open Source ให้ Metaflow เครื่องมือบริหารจัดการโครงการ Python Data Science ที่ Netflix ใช้งานภายใน

Netflix ได้ออกมาประกาศ Open Source ให้กับ Metaflow เครื่องมือสำหรับบริหารจัดการ Python Data Science Project แบบครบวงจรที่ Netflix พัฒนาขึ้นมาใช้งานเป็นการภายใน ซึ่งสามารถทำงานร่วมกับ Machine Learning Library ใดๆ ก็ได้ และสามารถทำงานร่วมกับ AWS ได้เป็นอย่างดี

สรุปงาน Veritas Tech Symposium 2019 : บริหารจัดการความซับซ้อนของข้อมูลด้วย Veritas Enterprise Data Service Platform (A P I)

การก้าวกระโดดของเทคโนโลยีถือเป็นเรื่องดีกับโลก เพียงแต่สิ่งเบื้องหลังที่อยู่เบื้องหลังและเป็นภาระขององค์กรตามมาก็คือทำอย่างไรจึงจะสามารถจัดการข้อมูลที่เกิดขึ้นด้วยเทคโนโลยีจำนวนมากและซับซ้อนเหล่านั้นได้อย่างมีประสิทธิภาพ ทั้งในแง่ของการปกป้องข้อมูลสำคัญให้รอดพ้นจากภัยคุกคามหรือในภาวะภัยพิบัติ รวมถึงกฏหมายคุ้มครองความเป็นส่วนตัวที่ถือกำเนิดขึ้น เช่น GDPR หรือ PDPA ของไทยเอง ด้วยเหตุนี้เอง Veritas จึงจัดงานใหญ่ประจำปีขึ้นภายใต้ชื่อ “Veritas Tech Symposium …