Intel เปิดตัวอุปกรณ์เร่งการประมวลผล AI รุ่นใหม่ พร้อมชิปรับส่งข้อมูลเครือข่ายระดับ Tbps

ในงาน Hot Chips 2019 ทาง Intel ได้ออกมาประกาศเปิดตัวเทคโนโลยีใหม่ๆ สำหรับเร่งการประมวลผล AI และการรับส่งข้อมูลเครือข่ายที่ระดับความเร็วถึง Tbps ดังนี้

Credit: Intel
  • Intel Nervana NNP-T สำหรับการ Train ระบบ Deep Learning โดยเฉพาะภายใต้โค้ดเนม Spring Crest ที่มาพร้อมกับ Tensor Processor 24 ชุดในตัว และเพิ่มขยายแบบ Scale Out ได้สูงสุด 1,024 Node
  • Intel Nervana NNP-I สำหรับการ Inference ระบบ Deep Learning โดยเฉพาะภายใต้โค้ดเนม Spring Hill ที่ช่วยประหยัดพลังงานในการประมวลผลได้สูงสุดถึง 5 เท่า
  • Lakefield ที่มาพร้อมกับการใช้ 3D Stacking และ IA Hybrid Architecture สำหรับ Mobile Device ช่วยให้ประหยัดพลังงานลงและมีขนาดเล็กลงด้วย
  • TeraPHY In-Package Optical I/O Chiplet ที่ Intel และ Ayer Labs นำมาจัดแสดงร่วมกันโดยติดตั้ง TeraPHY เข้ากับ Intel Stratix 10 FPGA ด้วย Intel EMIB ทำให้สามารถส่งข้อมูลได้ด้วยความเร็วสูงสุด 2Tbps รับข้อมูลได้ด้วยความเร็วสูงสุด 1.2Tbps และยังมีระยะการรับส่งข้อมูลได้ไกลที่สุด 2 กิโลเมตร
  • Intel Optane DC Persistent Memory ซึ่งเป็นอีกหนึ่งผลิตภัณฑ์เรือธงที่ Intel พยายามผลักดันในระยะนี้

เทคโนโลยีบางส่วนนี้เริ่มถูกใช้งานโดย Facebook แล้ว

ที่มา: https://newsroom.intel.com/news/hot-chips-2019/

About techtalkthai

ทีมงาน TechTalkThai เป็นกลุ่มบุคคลที่ทำงานในสาย Enterprise IT ที่มีความเชี่ยวชาญทางด้าน Network, Security, Server, Storage, Operating System และ Virtualization มารวมตัวกันเพื่ออัพเดตข่าวสารทางด้าน Enterprise IT ให้แก่ชาว IT ในไทยโดยเฉพาะ

Check Also

Microsoft ตั้งทีมวิศวกรรม AI ใหม่ นำโดย Jay Parikh อดีตผู้บริหารจาก Meta

Satya Nadella ประธานเจ้าหน้าที่บริหารของ Microsoft ประกาศในบันทึกถึงพนักงานว่าบริษัทกำลังก่อตั้งกลุ่มวิศวกรรมใหม่ภายใต้ชื่อ CoreAI – Platform and Tools โดยมี Jay Parikh อดีตผู้บริหารระดับสูงจาก Meta …

Amazon RDS for MariaDB พร้อมสนุน Innovation Release 11.7 ในสภาพแวดล้อม Preview

สำหรับใครที่อยากทดสอบ MariaDB ฟีเจอร์ใหม่ ๆ บน AWS ล่าสุด Amazon RDS for MariaDB ได้ประกาศพร้อมสนับสนุน MariaDB Innovation Release …