Intel ได้ออก Whitepaper อธิบายตัวแปรชนิดใหม่ BF16/BFloat16 ซึ่งเป็น Floating Point ใน Format ใหม่ซึ่งจะถูกใช้งานในหน่วยประมวลผลของ Intel ในอนาคต
BF16 นี้ถูกออกแบบมาเพื่อเพิ่มความเร็วการประมวลผลของ Deep Learning โดยเฉพาะ และสามารถถูกประมวลผลได้เร็วกว่า FP16 ที่ใช้กันอยู่ในปัจจุบันเป็นอย่างมาก เนื่องจาก BF16 นี้ไม่ได้รองรับการทำ Denormal ดังนั้นจึงไม่ต้องมีการเตรียมจัดการกับ Exception ในระดับ Hardware โดยตัว BF16 เองนี้จะถูก Implement โดยตรงลงไปใน Hardware เลย ส่วนตัวแปรชนิด FP32 นั้นมีประสิทธิภาพที่ใกล้เคียงกับ BF16 อยู่แล้ว จึงยังไม่มีการแก้ไขอะไรเพิ่มเติม
Intel BF16 นี้จะเริ่มถูกใช้งานใน Intel Xeon รุ่น Cooper Lake เป็นต้นไป รวมถึงมีแผนจะนำไปใช้งานใน Intel Nervana, Intel FPGA และ Hardware อื่นๆ ที่ออกแบบมาสำหรับประมวลผล Deep Learning โดยเฉพาะด้วย
ผู้ที่สนใจสามารถศึกษาข้อมูลเพิ่มเติมได้ที่ https://software.intel.com/sites/default/files/managed/40/8b/bf16-hardware-numerics-definition-white-paper.pdf ครับ
ที่มา: https://www.phoronix.com/scan.php?page=news_item&px=Intel-BFloat16-Deep-Learning