Intel เตรียมใช้ตัวแปรชนิดใหม่ BFloat16 เพิ่มความเร็วงาน Deep Learning ในหน่วยประมวลผล

Intel ได้ออก Whitepaper อธิบายตัวแปรชนิดใหม่ BF16/BFloat16 ซึ่งเป็น Floating Point ใน Format ใหม่ซึ่งจะถูกใช้งานในหน่วยประมวลผลของ Intel ในอนาคต

 

Credit: Intel

 

BF16 นี้ถูกออกแบบมาเพื่อเพิ่มความเร็วการประมวลผลของ Deep Learning โดยเฉพาะ และสามารถถูกประมวลผลได้เร็วกว่า FP16 ที่ใช้กันอยู่ในปัจจุบันเป็นอย่างมาก เนื่องจาก BF16 นี้ไม่ได้รองรับการทำ Denormal ดังนั้นจึงไม่ต้องมีการเตรียมจัดการกับ Exception ในระดับ Hardware โดยตัว BF16 เองนี้จะถูก Implement โดยตรงลงไปใน Hardware เลย ส่วนตัวแปรชนิด FP32 นั้นมีประสิทธิภาพที่ใกล้เคียงกับ BF16 อยู่แล้ว จึงยังไม่มีการแก้ไขอะไรเพิ่มเติม

Intel BF16 นี้จะเริ่มถูกใช้งานใน Intel Xeon รุ่น Cooper Lake เป็นต้นไป รวมถึงมีแผนจะนำไปใช้งานใน Intel Nervana, Intel FPGA และ Hardware อื่นๆ ที่ออกแบบมาสำหรับประมวลผล Deep Learning โดยเฉพาะด้วย

ผู้ที่สนใจสามารถศึกษาข้อมูลเพิ่มเติมได้ที่ https://software.intel.com/sites/default/files/managed/40/8b/bf16-hardware-numerics-definition-white-paper.pdf ครับ

 

ที่มา: https://www.phoronix.com/scan.php?page=news_item&px=Intel-BFloat16-Deep-Learning


About techtalkthai

ทีมงาน TechTalkThai เป็นกลุ่มบุคคลที่ทำงานในสาย Enterprise IT ที่มีความเชี่ยวชาญทางด้าน Network, Security, Server, Storage, Operating System และ Virtualization มารวมตัวกันเพื่ออัพเดตข่าวสารทางด้าน Enterprise IT ให้แก่ชาว IT ในไทยโดยเฉพาะ

Check Also

Salesforce นำเสนอโซลูชั่น AI ใหม่ล่าสุด ต่อยอดนวัตกรรมเพื่อยกระดับ Customer Experience ให้ธุรกิจทั่วโลก [Guest Post]

กรุงเทพฯ, ประเทศไทย, 8 มิถุนายน 2566 – เมื่อเร็ว ๆ นี้ Salesforce (เซลส์ฟอร์ซ) ประกาศเปิดตัวนวัตกรรม AI ล่าสุดหลายรายการสำหรับ Data …

Google เปิดตัว Secure AI Framework แนวทางการสร้าง AI อย่างปลอดภัย

Google เปิดตัว Secure AI Framework ช่วยแนะนำแนวทางการสร้าง AI อย่างปลอดภัย