Intel เตรียมใช้ตัวแปรชนิดใหม่ BFloat16 เพิ่มความเร็วงาน Deep Learning ในหน่วยประมวลผล

Intel ได้ออก Whitepaper อธิบายตัวแปรชนิดใหม่ BF16/BFloat16 ซึ่งเป็น Floating Point ใน Format ใหม่ซึ่งจะถูกใช้งานในหน่วยประมวลผลของ Intel ในอนาคต

 

Credit: Intel

 

BF16 นี้ถูกออกแบบมาเพื่อเพิ่มความเร็วการประมวลผลของ Deep Learning โดยเฉพาะ และสามารถถูกประมวลผลได้เร็วกว่า FP16 ที่ใช้กันอยู่ในปัจจุบันเป็นอย่างมาก เนื่องจาก BF16 นี้ไม่ได้รองรับการทำ Denormal ดังนั้นจึงไม่ต้องมีการเตรียมจัดการกับ Exception ในระดับ Hardware โดยตัว BF16 เองนี้จะถูก Implement โดยตรงลงไปใน Hardware เลย ส่วนตัวแปรชนิด FP32 นั้นมีประสิทธิภาพที่ใกล้เคียงกับ BF16 อยู่แล้ว จึงยังไม่มีการแก้ไขอะไรเพิ่มเติม

Intel BF16 นี้จะเริ่มถูกใช้งานใน Intel Xeon รุ่น Cooper Lake เป็นต้นไป รวมถึงมีแผนจะนำไปใช้งานใน Intel Nervana, Intel FPGA และ Hardware อื่นๆ ที่ออกแบบมาสำหรับประมวลผล Deep Learning โดยเฉพาะด้วย

ผู้ที่สนใจสามารถศึกษาข้อมูลเพิ่มเติมได้ที่ https://software.intel.com/sites/default/files/managed/40/8b/bf16-hardware-numerics-definition-white-paper.pdf ครับ

 

ที่มา: https://www.phoronix.com/scan.php?page=news_item&px=Intel-BFloat16-Deep-Learning


About techtalkthai

ทีมงาน TechTalkThai เป็นกลุ่มบุคคลที่ทำงานในสาย Enterprise IT ที่มีความเชี่ยวชาญทางด้าน Network, Security, Server, Storage, Operating System และ Virtualization มารวมตัวกันเพื่ออัพเดตข่าวสารทางด้าน Enterprise IT ให้แก่ชาว IT ในไทยโดยเฉพาะ

Check Also

RSA จับมือ DEPA ETDA พัฒนา Thailand Smart City

เมื่อวันพฤหัสบดีที่ 20 มิถุนายน 2019 ที่ผ่านทางทางทีมงาน TechTalkThai ได้มีโอกาสเข้าร่วมสัมภาษณ์กลุ่มกับผู้บริหารจาก RSA ซึ่งได้พูดคุยถึงความร่วมมือกับ DEPA และ ETDA ในการพัฒนาโปรเจ็คด้าน Smart City …

ฟรี eBook: A Developer’s Guide to Building AI Applications โดย Microsoft

Microsoft เปิดให้ดาวน์โหลด eBook เรื่อง A Developer’s Guide to Building AI Applications สำหรับนักพัฒนาที่ต้องการสร้างแอปพลิเคชันและ Bot อัจฉริยะโดยใช้เทคโนโลยี AI …