Data Center ยุคใหม่ ต้องเร่งเตรียม Network ให้พร้อมรับการใช้ AI ในอนาคต

หลังจาก Generative AI ได้ผงาดขึ้นมาเป็นเทรนด์โลก แทบทุกภาคส่วนมีความต้องการใช้งาน AI อย่างก้าวกระโดด ผู้ให้บริการ Data Center จึงต้องเร่งอัปเกรดโครงสร้างพื้นฐานทั้งหน่วยประมวลผล ระบบระบายความร้อน รวมทั้ง Network เพื่อสนับสนุนการใช้งานที่เพิ่มมากขึ้นอย่างมีนัยสำคัญ

บทความนี้ คือ “5 เทรนด์ของ Data Center Networking ที่ควรพิจารณาในปี 2024” ที่ผู้ให้บริการจะต้องเร่งพิจารณาอัปเกรดให้พร้อมรับการใช้ AI ในอนาคต นอกจากการก้าวไปสู่ความเร็วระดับ 400G หรือ 800G ให้ได้แล้ว ยังต้องพิจารณาในเรื่องการรองรับการอัปเกรดในระยะยาวอีกด้วย เพื่อรองรับการรับส่งข้อมูลปริมาณมหาศาลจากการใช้งาน AI ที่กำลังเพิ่มสูงขึ้นอย่างก้าวกระโดดในอนาคตอันใกล้

แท้จริงแล้ว AI ได้กำเนิดขึ้นมาบนโลกตั้งแต่นานมาแล้ว โดยงานวิจัย AI ได้เริ่มต้นขึ้นมาตั้งแต่ปี 1956 หากแต่ด้วยในช่วงไม่กี่ปีที่ผ่านมานี้เอง ด้วยความพร้อมของข้อมูล หน่วยประมวลผล และอัลกอริทึม จึงทำให้ AI มีพัฒนาการขึ้นมาอย่างก้าวกระโดด จนกระทั่งมาสู่ยุคปัจจุบันที่องค์กรสามารถใช้ประโยชน์จาก AI ได้จริงแล้วในหลากหลายกรณี

โดยปัจจุบัน AI มีอยู่ด้วยกัน 2 ประเภทที่กำลังใช้งานกันอยู่ในภาคธุรกิจอุตสาหกรรม ได้แก่

  • Predictive AI หรือ Inference AI อันเป็นโมเดล AI ที่เน้นการทำนาย (Forecast) เทรนด์หรือโอกาสที่จะเกิดเหตุการณ์ดังกล่าวในอนาคต เช่น การทำนายความต้องการ หรือระบบแนะนำ (Recommendation) ที่อยู่ภายใน Search Engine เป็นต้น
  • Generative AI โมเดล AI ที่เน้นการสร้างเนื้อหา (Content) ใหม่ เช่น ข้อความ ภาพ วีดีโอ ด้วยการส่ง Prompt ข้อมูลเพื่อให้โมเดล AI สร้างสรรค์สิ่งใหม่ขึ้นมา โดย LLM คือหนึ่งในตัวอย่างซึ่งเบื้องหลังระบบแชทบอทยอดนิยมอย่าง ChatGPT ที่สามารถช่วยสรุปประชุม เขียนโค้ด หรือว่าแต่งเพลงได้ เป็นต้น

โดย AI แต่ละประเภทนั้นมีประโยชน์และความเหมาะสมในการใช้งานที่แตกต่างกันไป ซึ่ง Predictive AI นั้นได้ถูกนำไปใช้งานมาเป็นระยะเวลาหนึ่งแล้วดังที่เห็นในเครื่องมือธุรกิจที่มีฟีเจอร์ AI สนับสนุนอยู่ ในขณะที่ Generative AI ก็ได้กลายเป็นกระแสหลักของทั้งโลกเป็นที่เรียบร้อย ซึ่งจะเริ่มเห็นเครื่องมือระดับองค์กรมากมายที่เริ่มสนับสนุนแล้ว เช่น การช่วยเขียนโปรแกรมในการพัฒนาซอฟต์แวร์ หรือการแพทย์สำหรับช่วยคิดค้นยาชนิดใหม่ เป็นต้น

เนื่องจาก การใช้งาน AI ให้มีประสิทธิภาพนั้นจำเป็นจะต้องมีการประมวลผลอย่างมหาศาล ดังนั้น ตัวขับเคลื่อนสำคัญที่จะทำให้ AI มีการใช้งานในวงกว้างได้นั้น คือ “โครงสร้างพื้นฐาน” ภายใน Data Center ที่ต้องมีประสิทธิภาพเพียงพอ รวมทั้งเรื่อง “ความหน่วง (Latency)” ที่ควรจะต้องต่ำที่สุดเท่าที่จะเป็นไปได้

ดังนั้น ไม่ว่าจะเป็นการออกแบบโครงสร้างพื้นฐาน หน่วยประมวลผล Network และสายสัญญาณ ทั้งหมดจะต้องพร้อมสนับสนุน เพื่อให้การประมวลผล AI ตั้งแต่การฝึกฝน (Training) ไปจนถึงการอนุมาน (Inference) หรือการให้เหตุผล (Reasoning) นั้นมีประสิทธิภาพสูงสุด ซึ่งทั้งหมดคือสิ่งที่ผู้ให้บริการ Data Center จะต้องพิจารณาปรับเปลี่ยนหรืออัปเกรดเพื่อรองรับวิวัฒนาการของ AI ทั้ง 2 ประเภทที่กำลังจะเกิดขึ้นในเร็ววันนี้

เพราะโครงสร้างพื้นฐานและความหน่วงคือตัวขับเคลื่อน AI ทั้ง 2 ประเภทในปัจจุบัน รวมทั้งโมเดลใหม่ ๆ ที่จะออกมาอีกในอนาคตอันใกล้ นี่คือ 5 เทรนด์ Data Center Networking ที่ควรจะพิจารณาสำหรับปี 2024 นี้ ได้แก่ 

1. ความหนาแน่นของ Data Center จะมากขึ้น ระบบเครือข่ายต้องรองรับต่อการอัปเกรดได้อย่างต่อเนื่องยาวนาน

เพราะ AI จำเป็นต้องใช้ประมวลผลอย่างมหาศาล หากความต้องการ AI เพิ่มสูงขึ้นมาก จะยิ่งส่งผลให้ Data Center จำเป็นจะต้องมีความหนาแน่น (Density) มากยิ่งขึ้นอย่างแน่นอน ไม่ว่าจะเรื่องน้ำหนักที่มากขึ้น พลังงานที่ต้องใช้ต่อตู้ Rack มากขึ้น รวมทั้ง Network ที่เชื่อมโยงจะต้องเร็วยิ่งขึ้นอย่างมีนัยสำคัญด้วย

ความเร็วของ Data Center Network เองก็จะต้องเปลี่ยนแปลงไปตามความหนาแน่นของ Data Center เพื่อรองรับ AI Workload ด้วยเช่นกัน โดยแนวโน้มของการใช้งานระบบเครือข่ายที่เดิมทีอาจจะใช้เพียง 10/40GbE จะต้องก้าวไปสู่ 100/200/400/800GbE ให้ได้แล้ว เพื่อรองรับการรับส่งข้อมูลปริมาณมหาศาลที่จะเกิดขึ้นในอนาคต 

โดยแนวทางหนึ่งที่ธุรกิจองค์กรควรต้องพิจารณาก็คือ การเลือกออกแบบระบบ Data Center Networking ให้สามารถอัปเกรดความเร็วได้ในระยะยาว ทั้งในส่วนของ Network ระหว่างตู้ Rack, การเชื่อมต่อ Network ไปยังอุปกรณ์ Server และ Storage รวมถึง Network ขาออกเพื่อให้บริการ AI แก่ผู้ใช้งาน

ในการตอบรับต่อแนวโน้มนี้ ผู้บริหารทางด้าน IT จะต้องพิจารณาอย่างครอบคลุมทั้งในแง่ของระบบโครงสร้างพื้นฐานทางด้านเครือข่ายที่จะต้องพิจารณาถึงการรองรับการอัปเกรดความเร็วได้โดยไม่ส่งผลกระทบต่อการติดตั้งใช้งานหรือการลงทุนมากนัก ทั้งในส่วนของสายไฟเบอร์และหัวเชื่อมต่อ, ระยะทางในการเชื่อมต่อเครือข่ายที่จะต้องรองรับการอัปเกรดไปสู่ความเร็วในระดับที่สูงขึ้นได้, การเปลี่ยนอุปกรณ์ Switch หรือ Network Card โดยจะต้องคำนึงถึงอัตราการใช้พลังงานสำหรับระบบเครือข่ายให้เหมาะสมด้วย

2. พื้นที่จัดเก็บจะเปลี่ยนเป็น Object Storage มากขึ้น

เนื่องจากรูปแบบข้อมูลดิจิทัลเริ่มเปลี่ยนไปในรูปแบบไร้โครงสร้าง (Unstructured Data) มากยิ่งขึ้นเรื่อย ๆ ดังนั้น การเก็บข้อมูลเหล่านั้นไว้บน SAN หรือ NAS ไม่อาจตอบโจทย์การใช้ประมวลผลของ AI ในจำนวนมาก ๆ อีกต่อไปแล้ว เพื่อให้การรับส่งข้อมูลให้กับ AI มีประสิทธิภาพสูงสุด การจัดเก็บข้อมูลบน Object Storage ที่สามารถกระจายข้อมูลเพื่อจัดเก็บได้จำนวนมาก ๆ จึงกำลังเป็นเทรนด์ที่จะนิยมใช้มากขึ้นเรื่อย ๆ 

ปัจจัยนี้จะส่งผลต่อการออกแบบระบบ Network สำหรับ Storage ด้วยเช่นกัน โดยสิ่งที่ต้องคำนึงถึงนั้นก็จะเป็นเรื่องของปริมาณ Bandwidth ที่ต้องสูงเพียงพอ, Response Time ของระบบเพื่อให้การตอบสนองมีความรวดเร็ว, การรองรับการอัปเกรดใช้งาน Network ความเร็วระดับที่สูงยิ่งขึ้นในอนาคต และการมี Network สำหรับรองรับ Protocol ที่หลากหลายของระบบ Storage ในปัจจุบันและอนาคตร่วมกันได้ทั้ง SAN, NAS และ Object Storage ในหนึ่งเดียว

3. ระบบระบายความร้อนรูปแบบใหม่

การระบายความร้อนคือประเด็นที่สำคัญอย่างยิ่งของทุก Data Center ที่จะให้บริการและถ้าหากมีความต้องการ AI เพิ่มมากขึ้น ก็ยิ่งจำเป็นต้องใส่อุปกรณ์ฮาร์ดแวร์เข้าไปมากขึ้น สิ่งนี้จะส่งผลต่อเรื่องความร้อนที่มากขึ้นอย่างแน่นอน ซึ่งการระบายความร้อนด้วยเครื่องปรับอากาศอาจไม่เพียงพออีกต่อไปแล้ว จำเป็นจะต้องมีการออกแบบแนวทางใหม่ และหนึ่งในทางออก คือ Liquid Cooling ที่อาจกลายเป็นมาตรฐานการระบายความร้อนใหม่ในอนาคตอันใกล้นี้ 

ประเด็นนี้จะส่งผลต่อการออกแบบการเดินสายภายในตู้ Rack เป็นอย่างมาก เพราะความต้องการในการเชื่อมต่อสายของระบบ Liquid Cooling ที่เพิ่มเข้ามานั้นจะเพิ่มความซับซ้อนของการเดินสายภายในแต่ละตู้ Rack และระหว่างตู้ Rack ให้สูงยิ่งขึ้น ซึ่งแนวทางหนึ่งที่กำลังได้รับความนิยมมากขึ้นก็คือการเลือกใช้ Network ที่มีความเร็วต่อสายสูงขึ้น เพื่อลดความซับซ้อนในการเดินสาย และรองรับการอัปเกรดความเร็วได้มากยิ่งขึ้น ในขณะที่ยังคงใช้งานร่วมกับระบบระบายความร้อนของอุปกรณ์ภายในตู้ Rack ได้ทั้งแบบดั้งเดิมและ Liquid Cooling ควบคู่กันไปได้

4. การแยกระบบภายใน Data Center ที่มีความชัดเจนมากยิ่งขึ้น

ปัจจุบันการออกแบบ Data Center เพื่อรองรับการประมวลผลของ AI มักนิยมแบ่งออกเป็น 2 ส่วน คือ 

  • Front End โครงสร้างพื้นฐานแบบดั้งเดิม ที่จะประกอบไปด้วยอุปกรณ์ต่าง ๆ เช่น เครื่อง Server, Router ที่จะเชื่อมโยงกันผ่านเน็ตเวิร์ก Ethernet ทั้งหมด
  • Back End หรือระบบ AI ที่มี Graphics Processing Unit (GPU) พร้อมกับ 4 ระบบ ได้แก่ Out-of-band Management Network, Storage, AI Compute และ In band ที่จะทำงานอยู่บน InfiniBand ร่วมกับการใช้งานเทคโนโลยี Remote Direct Memory Access (RDMA) 

โดยปัจจุบัน ผู้ให้บริการเริ่มนิยมใช้วิธีการเชื่อมต่อ API ตรงมายัง Backend ที่เป็น AI เพื่อให้สามารถสื่อสารกันได้โดยตรง เพื่อให้มีความหน่วงน้อยที่สุดเท่าที่จะเป็นไปได้ ทำให้การออกแบบระบบเครือข่ายสำหรับส่วนของ Front End และ Back End มีความแตกต่างกันอย่างชัดเจน และการวางแผนอนาคตเพื่อรองรับการอัปเกรดระดับความเร็วของแต่ละส่วนก็จะมีบริบทที่แตกต่างกันออกไป

5. Edge AI Data Center

หนึ่งในแนวทางที่สามารถทำให้ AI นำไปใช้งานในภาคธุรกิจได้ในวงกว้าง นั่นคือการนำระบบ AI ไปวางไว้ให้อยู่ใกล้ ๆ พื้นที่การใช้งาน และ Edge AI Data Center อันเป็นลักษณะ Data Center ขนาดเล็กประมาณ 1 ตู้ Rack ที่ใส่เครื่อง Server ไม่กี่ตัวร่วมกับ APU อันทรงประสิทธิภาพ ก็สามารถทำให้ AI ใช้งานได้จริง ณ พื้นที่นั่นโดยที่ไม่จำเป็นต้องลงทุนใน Data Center ขนาดใหญ่ได้เลย

ประเด็นนี้ได้นำมาซึ่งความท้าทายใหม่ของผู้ดูแลระบบ IT Infrastructure ในแง่ของการออกแบบระบบเครือข่ายสำหรับ Edge Computing และการเชื่อมต่อเครือข่ายระหว่างระบบ Edge Computing เข้ากับระบบอื่น ๆ เนื่องจากในปัจจุบัน Edge Computing มักมีระบบขนาดเล็ก แต่ในอนาคตเองก็มีแนวโน้มที่ระบบเหล่านี้จะถูกเพิ่มขยายให้เติบโตมากยิ่งขึ้น 

ตัวอย่างหนึ่งที่เห็นได้ชัดก็คือการเลือกใช้สถาปัตยกรรม Hyperconverged Infrastructure (HCI) ที่ Edge เพื่อให้เกิดความยืดหยุ่นในการใช้งาน ซึ่ง HCI เองก็ต้องการการเชื่อมต่อเครือข่ายที่มีประสิทธิภาพสูงในพื้นที่ขนาดเล็ก ซึ่งจะเกิดความท้าทายทั้งในแง่ของการออกแบบด้านประสิทธิภาพ และความคุ้มค่าในการลงทุนระยะยาว

จาก 5 เทรนด์ของ Data Center ข้างต้นที่มาพร้อมกับความต้องการของ AI ที่เพิ่มมากขึ้น จึงทำให้ผู้พัฒนา GPU ได้เร่งประสิทธิภาพพุ่งทะยานขึ้นอย่างก้าวกระโดด จนกระทั่ง GPU รุ่นยุคปัจจุบันมีความเร็วระดับ 400G (หรือ 400 Gbps) แล้ว หากแต่ในอนาคตอันใกล้ GPU จะแรงเร็วขึ้นอีกหลายเท่าตัวภายในช่วงเวลาไม่ถึงปีเท่านั้น 

และสิ่งที่เป็นคอขวด (Bottleneck) ในการพัฒนาหรือใช้งาน AI นั้นจะไม่ใช่ส่วนของหน่วยประมวลผลอีกต่อไป หากแต่จะเป็น “โครงข่ายเน็ตเวิร์ก” ที่อาจจะช้าหรือมีความหน่วงสูง ดังนั้น ผู้ให้บริการ Data Center จึงต้องเร่งอัปเกรดสายเคเบิ้ลต่าง ๆ ให้ความเร็วที่รองรับได้เพียงพอกับความเร็วของ GPU เพื่อปลดล็อกประสิทธิภาพสูงสุด โดยเทรนด์ของสายเคเบิ้ลที่กำลังจะวิวัฒนาการไปในอนาคตอันใกล้ มีดังต่อไปนี้

1. การส่งสัญญาณแบบ PAM-4 ร่วมกับตัวเชื่อมต่อแบบ APC

การส่งสัญญาณข้อมูลแสงในสายแบบ Pulse Amplitude Modulation with Four Levels (PAM-4) กำลังเป็นที่นิยมมากขึ้นเรื่อย ๆ ด้วยความเร็วระดับ 50 Gb/s ที่เร็วกว่าแบบ NRZ พร้อมทั้งนิยมเลือกใช้ชนิดตัวเชื่อมต่อ (Connector) แบบ Angled Physical Contact (APC) ที่ตรงส่วนปลายจะมีการตัดเฉียง 8 องศาที่จะทำให้ลดการสะท้อนกลับของแสง และการสูญเสียของสัญญาณแสงในสาย (Loss) น้อยที่สุด  เพื่อให้สามารถใช้งานได้ในระยะทางที่ไกลขึ้น และสามารถใช้จำนวนตัวเชื่อมต่อได้มากขึ้น

2. ตัวเชื่อมต่อแบบ MPO-16

เนื่องจากโครงข่าย Back End ของ Data Center จะต้องการ Bandwidth สูงมากขึ้นเรื่อย ๆ ซึ่งในอนาคตอีกไม่กี่ปีเท่านั้นความเร็วระดับ 400G ก็จะมีการใช้งานที่น้อยลงไปและจะเริ่มขยับไปสู่ระดับ 800G, หรือ 1.6T แล้ว ดังนั้น หัวเชื่อมต่อแบบ Multi-fiber Push On 16 (MPO-16) ที่มีเส้นใยแก้ว 16 เส้นเพื่อสนับสนุนการทำงานแบบขนานและให้ได้ Bandwidth ที่สูงนั้นจะเริ่มเป็นที่นิยมมากขึ้น และอาจกลายเป็นมาตรฐานในอนาคตอันใกล้นี้ด้วย

CommScope ได้แนะนำ 2 แนวทางสำหรับองค์กรในการปรับโครงสร้างพื้นฐานเน็ตเวิร์กและสายเคเบิ้ลภายใน Data Center เพื่อสนับสนุนการพัฒนาหรือใช้งาน AI ในอนาคต ได้แก่

1. Structured Cabling

แนวทางการเดินสายแบบมีโครงสร้าง (Structured Cabling) สำหรับองค์กรที่ต้องการความยืดหยุ่น บริหารจัดการได้ง่าย และสามารถใช้งานอุปกรณ์ต่าง ๆ ได้ในระยะเวลาที่ยาวนานกว่า ที่สามารถสนับสนุนได้ทั้ง InfiniBand และ Ethernet อีกทั้งยังสามารถปรับเปลี่ยนอุปกรณ์ใหม่ได้อย่างสะดวกมากกว่า หากแต่ทั้งหมดก็จะมาพร้อมกับราคาค่าใช้จ่ายที่สูง ส่วนหนึ่งเป็นเพราะจำเป็นต้องใช้สายที่มีค่าสูญเสียในระดับที่ต่ำมาก ๆ (Ultra-Low Loss หรือ ULL) เพื่อจัดการกับค่าสูญเสีย (Loss) ที่สูงขึ้น 

2. Active Optical Cables/Direct Attach Cables (AOC/DAC)

การใช้สายเชื่อมต่อโครงข่ายกันตรงโดยไม่ต้องผ่านตัวกลางใด ๆ ซึ่งเหมาะกับการเชื่อมโยงระหว่างอุปกรณ์หรือ Data Center ในระยะไม่ไกลมาก มีค่าใช้จ่ายที่ต่ำกว่า หากแต่จะมีความยืดหยุ่นน้อยกว่า และมีโอกาสที่สายสัญญาณอาจหักหรือชำรุดได้ง่าย ซึ่งหากเกิดปัญหาดังกล่าวก็จำเป็นจะต้องติดตั้งสายสัญญาณใหม่ เนื่องด้วยการรื้อสายทิ้งค่อนข้างลำบาก รวมทั้งอาจจะส่งผลกระทบกับสายสัญญาณเส้นอื่น ๆ ที่มีการใช้งานอยู่  และอาจนำมาซึ่งความไม่สวยงามในการจัดการสายภายใน Data Center

หากองค์กรเลือกแนวทางการปรับปรุงโครงสร้างเน็ตเวิร์กองค์กรให้เป็นลักษณะ Structured Cabling ทาง CommScope มีโซลูชัน Propel แพลตฟอร์มสายไฟเบอร์ความจุสูง (High-Density) แบบ End-To-End ที่มั่นใจได้ทั้งเรื่องประสิทธิภาพ ความยืดหยุ่น ที่พร้อมรองรับความต้องการประมวลผลของ AI ด้วยความเร็วเน็ตเวิร์กระดับ 400G หรือ 800G ได้อย่างมั่นใจ

ด้วยแพลตฟอร์ม Propel ของ CommScope ที่มีลักษณะเป็นแบบโมดูลาร์ (Modular) จึงทำให้องค์กรสามารถบริหารจัดการโครงข่ายเน็ตเวิร์กได้ง่าย ปรับเปลี่ยนได้อย่างคล่องตัว และมีการเชื่อมต่อที่มีค่าสูญเสียในระดับที่ต่ำมาก ๆ (Ultra-Low Loss หรือ ULL) ทั้งหมด ทำให้ช่วยแก้ปัญหาจำนวนจุดเชื่อมต่อที่มีจำนวนมากขึ้นได้อย่างลงตัว ทำให้ Data Center มีโครงข่ายเน็ตเวิร์กที่พร้อมสำหรับการพัฒนาและใช้งานแอปพลิเคชัน Generative AI เป็นไปได้อย่างราบรื่นที่สุด 

โดยภายในโซลูชัน Propel ของ CommScope นี้ มีโมดูลให้เลือกใช้งานได้แบบครอบคลุมครบวงจร ได้แก่

  • Patch Panels แผงจัดเก็บสายไฟเบอร์แบบสไลด์ความจุสูงที่มีพร้อมสนับสนุนในหลากหลายขนาด ตั้งแต่ 1U, 2U ไปจนถึงขนาด 4U ที่รองรับได้ถึง 144 สายไฟเบอร์ต่อ 1U สำหรับตัวเชื่อมต่อแบบ LC/MPO สำหรับตัวโมดูล หรือ Cassettes สามารถติดตั้งทางด้านหน้า หรือด้านหลังได้อย่างยืดหยุ่น
  • Modules & Cassettes โมดูลหรือแผงต่อสายในรูปแบบต่าง ๆ ที่สนับสนุนได้ทั้ง Single Mode, Multi Mode หรือว่าตัวเชื่อมต่อ MPO แบบต่าง ๆ ได้ทั้งหมด
  • Splice Cassettes แผงต่อสายอีกรูปแบบที่รองรับการ Fusion Splicing โดยในหนึ่งแผงสามารถรองรับการเชื่อมต่อได้ตั้งแต่ 8, 12, 16 และ 24 สายไฟเบอร์ 
  • Cable Assemblies สายเคเบิ้ลชนิดพร้อมตัวเชื่อมต่อรูปแบบต่าง ๆที่ประกอบ และผ่านการตรวจสอบคุณภาพจากโรงงานผู้ผลิต ที่สามารถเลือกหัวเชื่อมต่อทั้งสองด้านได้อย่างอิสระ ซึ่งมีชนิดตัวเชื่อมต่อแบบ MPO-16 และเป็นแบบ APC ด้วย

หากใครสนใจโซลูชัน Propel ของทาง CommScope สามารถติดต่อทีมงานของ CommScope ได้ที่
คุณพงศ์ภวัน พูนประชา System Engineer, CommScope Thailand ผ่านทางอีเมล pongpawan.poonprachar@commscope.com

หากใครที่สนใจอยากจะอัปเดตความรู้ด้าน Networking ระดับองค์กร สามารถติดตามงานสัมมนาเชิงเทคนิคและข่าวสารดี ๆ ได้จาก CommScope ที่จะมาแบ่งปันกันอย่างต่อเนื่อง โดยติดตามในช่องทางต่าง ๆ ของ CommScope ได้ดังต่อไปนี้

  • CommScope CTF Webinars งานสัมมนา CTF (CommScope Technical Family) อื่น ๆ ทั้งย้อนหลังและในอนาคตที่สามารถเข้าเรียนรู้เชิงเทคนิคอย่างเข้มข้น
  • CommScope APAC LinkedIn สำหรับติดตามข่าวสารข้อมูลในเรื่องเทคโนโลยีโครงสร้างพื้นฐานด้าน Networking ของ CommScope

เพราะ Data Center ยุคถัดไปจะต้องพร้อมสนับสนุนการประมวลผล AI ไม่ว่าจะเป็น Predictive AI หรือ Generative AI ให้ได้อย่างมีประสิทธิภาพสูงสุด เพื่อรองรับการใช้งานแอปพลิเคชัน AI ที่จะเพิ่มมากขึ้นในอนาคตอันใกล้ และโครงข่ายเน็ตเวิร์กคือส่วนถัดไปที่จะกลายเป็นคอขวดต่อจาก GPU 

ดังนั้น หากต้องการปรับเปลี่ยนโครงสร้างพื้นฐานเน็ตเวิร์กภายใน Data Center ให้มีความพร้อมสำหรับอนาคต แพลตฟอร์ม Propel ของ CommScope ที่เป็นลักษณะ Structured Cabling ที่ยืดหยุ่นและปรับเปลี่ยนได้ในอนาคตนั้นคืออีกโซลูชันที่องค์กรควรพิจารณา

และหากใครต้องการองค์ความรู้ในเรื่อง Data Center กับเน็ตเวิร์กเพิ่มเติม สามารถรับชมเซสชันสัมมนา “การเตรียม Data Center ให้พร้อมสำหรับระบบ AI” ที่บรรยายโดยคุณพงศ์ภวัน พูนประชา Systems Engineer แห่งบริษัท CommScope แบบเต็ม ๆ ที่สามารถดูย้อนหลังได้บนเว็บไซต์นี้ 

About chatchai

Tech Writer แห่ง TechTalk Thai ที่สนใจในทุกนวัตกรรมและเทคโนโลยี

Check Also

บริษัทซอฟต์แวร์คลาวด์ ServiceTitan ประกาศ IPO หวังระดมทุนสูงสุด 502 ล้านดอลลาร์

ServiceTitan ผู้ให้บริการซอฟต์แวร์คลาวด์สำหรับธุรกิจ ประกาศเสนอขายหุ้นต่อสาธารณะครั้งแรก (IPO) โดยตั้งเป้าระดมทุนสูงสุดถึง 502 ล้านดอลลาร์สหรัฐ จากการเสนอขายหุ้นจำนวน 8.8 ล้านหุ้น ในช่วงราคาหุ้นละ 52 ถึง 57 ดอลลาร์

Tuskira เปิดตัวพร้อมทุน 28.5 ล้านดอลลาร์ ยกระดับความมั่นคงปลอดภัยไซเบอร์ด้วย AI

สตาร์ทอัพด้านการตรวจจับภัยคุกคาม Tuskira เปิดตัวพร้อมระดมทุน 28.5 ล้านดอลลาร์จากกลุ่มนักลงทุนที่นำโดย Intel Capital และ SYN Ventures มุ่งเร่งนวัตกรรม AI การผสานระบบ และยกระดับการรักษาความมั่นคงปลอดภัยไซเบอร์ขององค์กรด้วยกลยุทธ์เชิงรุกที่รวมเครื่องมือเข้าด้วยกันและลดความเสี่ยงแบบเรียลไทม์