Intel เตรียมใช้ตัวแปรชนิดใหม่ BFloat16 เพิ่มความเร็วงาน Deep Learning ในหน่วยประมวลผล

Intel ได้ออก Whitepaper อธิบายตัวแปรชนิดใหม่ BF16/BFloat16 ซึ่งเป็น Floating Point ใน Format ใหม่ซึ่งจะถูกใช้งานในหน่วยประมวลผลของ Intel ในอนาคต

 

Credit: Intel

 

BF16 นี้ถูกออกแบบมาเพื่อเพิ่มความเร็วการประมวลผลของ Deep Learning โดยเฉพาะ และสามารถถูกประมวลผลได้เร็วกว่า FP16 ที่ใช้กันอยู่ในปัจจุบันเป็นอย่างมาก เนื่องจาก BF16 นี้ไม่ได้รองรับการทำ Denormal ดังนั้นจึงไม่ต้องมีการเตรียมจัดการกับ Exception ในระดับ Hardware โดยตัว BF16 เองนี้จะถูก Implement โดยตรงลงไปใน Hardware เลย ส่วนตัวแปรชนิด FP32 นั้นมีประสิทธิภาพที่ใกล้เคียงกับ BF16 อยู่แล้ว จึงยังไม่มีการแก้ไขอะไรเพิ่มเติม

Intel BF16 นี้จะเริ่มถูกใช้งานใน Intel Xeon รุ่น Cooper Lake เป็นต้นไป รวมถึงมีแผนจะนำไปใช้งานใน Intel Nervana, Intel FPGA และ Hardware อื่นๆ ที่ออกแบบมาสำหรับประมวลผล Deep Learning โดยเฉพาะด้วย

ผู้ที่สนใจสามารถศึกษาข้อมูลเพิ่มเติมได้ที่ https://software.intel.com/sites/default/files/managed/40/8b/bf16-hardware-numerics-definition-white-paper.pdf ครับ

 

ที่มา: https://www.phoronix.com/scan.php?page=news_item&px=Intel-BFloat16-Deep-Learning


About techtalkthai

ทีมงาน TechTalkThai เป็นกลุ่มบุคคลที่ทำงานในสาย Enterprise IT ที่มีความเชี่ยวชาญทางด้าน Network, Security, Server, Storage, Operating System และ Virtualization มารวมตัวกันเพื่ออัพเดตข่าวสารทางด้าน Enterprise IT ให้แก่ชาว IT ในไทยโดยเฉพาะ

Check Also

Microsoft Threat Protection เปิดให้ทดลองใช้งานแล้ว

Microsoft ประกาศเปิดให้ทดลองใช้ Microsoft Threat Protection แบบ Public Preview เพิ่มความสามารถในการตอบสนองต่อภัยคุกคามโดยอัตโมมัติ รวมไปถึงแก้ปัญหาที่เกิดขึ้นบนอุปกรณ์ อัตลักษณ์ของผู้ใช้งาน และกล่องอีเมลได้ด้วยตนเอง

[Guest Post] บริษัท พาโล อัลโต เน็ตเวิร์ค เผยคาดการณ์ความมั่งคงปลอดภัย ปี 2563

เควิน โอ แลรีย์ (Kevin O’Leary) ประธานเจ้าหน้าที่ฝ่ายความปลอดภัยระบบสารสนเทศ (Chief Security Officer) และ ที่ปรึกษาด้านความปลอดภัยระบบสารสนเทศ ประจำเอเชียแปซิฟิก และคงศักดิ์ ก่อตระกูล ผู้จัดการวิศวกรระบบ …