Microsoft Azure by Ingram Micro (Thailand)

Facebook เปิดตัว Server ใหม่ 4 ตัวที่ใช้งานอยู่ล่าสุด เผยการออกแบบใน Open Compute Project

ในงาน OCP Summit 2017 ที่กำลังจัดขึ้นอยู่นี้ Facebook ได้ออกมาประกาศถึง Server รุ่นใหม่ล่าสุดด้วยกัน 4 รุ่นที่ครอบคลุมทั้ง Storage Server, GPU Node, Compute Node และ Multi-node Compute Platform พร้อมเปิด Open Source ให้แก่โครงการ Open Compute Project (OCP) โดยแต่ละรุ่นที่เปิดตัวมามีรายละเอียดที่น่าสนใจมากๆ ดังนี้

 

Bryce Canyon – 4 OU Storage Server ที่รองรับ 72 HDD

Credit: Facebook

 

Bryce Canyon นี้เป็น Storage Chassis ล่าสุดที่เปิดตัวถัดมาจาก Open Vault (Knox) ที่เคยเปิดตัวมาตั้งแต่ปี 2013 โดย Bryce Canyon นี้ถูกออกแบบมาให้สามารถจุ HDD ได้มากถึง 72 ชุดภายในขนาดเพียงแค่ 4 OU (Open Rack Unit) ซึ่งถือว่ามีความจุสูงขึ้น 20% และยังมีจุดเด่นที่น่าสนใจตรงที่สามารถเลือกปรับใช้งานเป็นได้ทั้ง JBOD จนถึง Storage Server ได้เลย โดยมี CPU และ RAM ที่ใหญ่ขึ้นกว่ารุ่นก่อนหน้าถึง 4 เท่า

การเปลี่ยน Bryce Canyon ให้ทำงานเป็น Storage Server นี้สามารถทำได้ด้วยการใส่ Mono Lake ซึ่งเป็น Open Compute Single-socket (1S) Server Card เข้าไปเท่านั้น ส่วนการบริหารจัดการก็สามารถทำได้ผ่าน OpenBMC ได้เลย โดยรายละเอียดเชิงลึกของ Bryce Canyon นั้นอยู่ที่ https://code.facebook.com/posts/1869788206569924/introducing-bryce-canyon-our-next-generation-storage-platform/

 

Big Basin – 3 OU Just a Bunch of GPUs (JBOG) สถาปัตยกรรมใหม่สำหรับ GPU ใน Data Center

Credit: Facebook

 

Big Basin นี้ถือเป็นทายาทของ Big Sur ที่เป็น GPU Server รุ่นก่อนหน้า แต่ Big Basin นี้ได้ทำการปรับปรุงและแก้ไขจุดอ่อนต่างๆ ของ Big Sur และกลายมาเป็น Just a Bunch of GPUs หรือ JBOG ไปแทน โดยภายใน Big Basin นี้จะไม่มี Server Card หรือ Network Module แต่อย่างใด และต้องทำการเชื่อมต่อเข้ากับ Server เครื่องอื่นๆ เพื่อใช้งานเท่านั้น เป็นการออกแบบแบบ Modular เพื่อเพิ่มความคุ้มค่าในการใช้งานและความยืดหยุ่นในการปรับเปลี่ยนหรือเพิ่มขยายได้เฉพาะ GPU นั่นเอง รวมถึงยังง่ายต่อการดูแลรักษาในระยะยาวอีกด้วย

Big Basin ขนาด 3 OU นี้สามารถ Train Model ได้เร็วขึ้นกว่า Big Sur ถึง 30% เพราะมีการรองรับ Throughput ที่สูงขึ้น และมีหน่วยความจำเพิ่มขึ้น และในการทดสอบบางครั้งนั้นก็มีประสิทธิภาพสูงกว่า Big Sur ถึง 100% เลยทีเดียว โดย Big Basin รองรับการติดตั้ง NVIDIA Tesla P100 GPU สูงสุดที่ 8 ชุด และมีรายละเอียดเชิงลึกให้ศึกษาเพิ่มเติมที่ https://code.facebook.com/posts/1835166200089399/introducing-big-basin-our-next-generation-ai-hardware/

 

Tioga Pass – Compute Node ใหม่ที่รองรับ RAM และ Flash อย่างเต็มตัว

Credit: Facebook

 

Tioga Pass นี้เป็นรุ่นสืบทอดจาก Leopard ในฐานะของ Compute Node แบบ Dual Socket และมีการออกแบบทั้งการติดตั้ง RAM ได้ด้านเดียวหรือ 2 ด้านของบอร์ด ทำให้สามารถเลือกให้เหมาะกับปริมาณ RAM ที่ต้องการได้ อีกทั้งยังมีช่อง M.2 สำหรับเชื่อมต่อกับ M.2 NVMe SSD, มี PCIe x32 ซึ่งแยกเป็น x16 2 ช่องหรือ x16 1 ช่องและ x8 2 ช่องก็ได้ เพื่อให้รองรับการเชื่อมต่อกับ Big Basin JBOG หรือ Lightning JBOF ได้อย่างสะดวก ส่วนระบบเครือข่ายที่เชื่อมต่อได้นั้นก็รองรับที่ 100GbE เลย และก็สามารถบริหารจัดการได้ผ่าน OpenBMC ด้วย

 

Yosemite v2 และ Twin Lakes – Multi-node Compute Platform ที่เอนกประสงค์ยิ่งกว่าเดิม

Credit: Facebook

 

Yosemite v2 นี้เป็นรุ่นสืบทอดจาก Yosemite ระบบ Multi-node Compute Platform ที่เคยรองรับ Single-socket Server จำนวน 4 เครื่องได้ภายใน แต่ใน Yosemite v2 นี้ได้เปลี่ยนมาใช้ vCubby Chassis ขนาด 4 OU แทน และรองรับการติดตั้ง Single-socket Server ได้ 4 เครื่อง หรือจะปรับไปติดตั้ง Single-socket Server จำนวน 2 เครื่องคู่กับ Device Card จำนวน 2 ใบแทนก็ได้ โดยแต่ละ Server รองรับการเชื่อมต่อเครือข่ายด้วยความเร็ว 50GbE/100GbE ผ่าน Multi-host NIC ได้

อีกประเด็นที่ถูกปรับปรุงใน Yosemite v2 นี้ก็คือการเปลี่ยน Power ได้แบบ Hot-swap โดยไม่เกิด Downtime ส่วนบอร์ดข้างในนั้นก็รองรับทั้ง Mono Lake รุ่นเดิมและ Twin Lakes รุ่นใหม่ซึ่งต่างก็เป็น Single-socket Mainboard ทั้งคู่ อีกทั้งยังรองรับการติดตั้ง Glacier Point SSD Carrier Card และ Crane Flat Device Carrier Card สำหรับเพิ่มความจุของ Flash Storage ให้กับแต่ละ Server รวมถึงยังรองรับ PCIe ได้อีกด้วย แน่นอนว่าระบบนี้ต้องรองรับการบริหารจัดการผ่าน OpenBMC เช่นกัน

 

ผู้ที่สนใจการออกแบบฉบับเต็ม สามารถเข้าไปศึกษาได้ที่ http://www.opencompute.org/wiki/Files_and_Specs เลยครับ

 

ที่มา: https://code.facebook.com/posts/1241554625959357/the-end-to-end-refresh-of-our-server-hardware-fleet/ 

About techtalkthai

ทีมงาน TechTalkThai เป็นกลุ่มบุคคลที่ทำงานในสาย Enterprise IT ที่มีความเชี่ยวชาญทางด้าน Network, Security, Server, Storage, Operating System และ Virtualization มารวมตัวกันเพื่ออัพเดตข่าวสารทางด้าน Enterprise IT ให้แก่ชาว IT ในไทยโดยเฉพาะ

Check Also

NVIDIA เปิดตัว NIM Microservices และ Cloud Endpoints ใหม่ ช่วยองค์กรพัฒนา Generative AI ใช้งานได้สะดวกขึ้น

NVIDIA เปิดตัว API และเครื่องมือใหม่สำหรับการพัฒนาและใช้งาน Generative AI ในงานสัมมนา NVIDIA GTC 2024 ซึ่งจะช่วยให้การพัฒนาและนำเทคโนโลยีดังกล่าวมาใช้งานสะดวกรวดเร็วยิ่งขึ้นตั้งแต่ขั้นตอนการจัดเตรียมข้อมูล ปรับแต่งโมเดล ไปจนถึงการรักษาความปลอดภัยด้วย Guardrails

เอชพี เปิดตัวพอร์ตโฟลิโอที่หลากหลายที่สุดในกลุ่มผลิตภัณฑ์ AI PCs [PR]

เอชพี เปิดตัวพอร์ตโฟลิโอที่หลากหลายที่สุดในกลุ่มผลิตภัณฑ์ AI PCs ขับเคลื่อน ด้วยขุมพลัง AI ยกระดับประสิทธิภาพการทำงาน การสร้างสรรค์ และประสบการณ์ของผู้ใช้ในสภาพแวดล้อม การทำงานแบบไฮบริด