IBM ได้ออกมาเผยถึงการพัฒนาชิปรุ่นล่าสุดในแบบ Prototype เพื่อแก้ปัญหาในโลกของ AI และ Deep Learning ในงาน IEEE VLSI Symposia ซึ่งสามารถใช้ทำหน้าที่ได้ทั้งการ Train Model และการ Execute Function พร้อมๆ กันได้ด้วย Utilization ระดับสูง

ปัญหาที่วงการ AI และ Deep Learning พบอยู่ในตอนนี้คือหน่วยประมวลผลในสถาปัตยกรรมปัจจุบันนี้ยังไม่สามารถทำหน้าที่ทั้งในส่วนของการ Train ระบบ Neural Net และการ Execute Function หรือที่เรียกว่า Inference พร้อมๆ กันได้ดีนัก เพราะการ Train ที่แม่นยำนั้นจะต้องใช้ความแม่นยำทางคณิตศาสตร์สูง ในขณะที่การทำ Inference นั้นมักจะนิยมใช้การประมาณด้วยการใช้ความแม่นยำที่ต่ำลงในการคำนวน เพื่อให้ประหยัดพลังงาน
ชิปใหม่ล่าสุดที่ทาง IBM กำลังพัฒนาอยู่นี้จะรองรับการคำนวนได้ทั้งที่ความแม่นยำสูงและต่ำพร้อมๆ กัน โดยรองรับได้ตั้งแต่ระดับ 32-bit, 16-bit, 2-bit, 1-bit ซึ่งเทคโนโลยีในปัจจุบันนี้จะทำการ Train อย่างแม่นยำสูงสุดที่ 16-bit ในขณะที่การทำ Inference จะทำได้ถึง 2-bit
นอกจากนี้อีกปัญหาหนึ่งก็คือสถาปัตยกรรมของหน่วยความจำ ที่มักแยกไปอยู่ในส่วนของ Cache นอกหน่วยประมวลผล ทำให้ Utilization ในการประมวลผลนั้นอยู่ที่เพียง 20-30% เท่านั้น แต่ชิปใหม่ของ IBM นี้ได้นำหน่วยความจำเข้ามาใส่ในหน่วยประมวลผลเลย ทำให้มี Utilization มากถึง 90%
ชิปดังกล่าวนี้รองรับได้ทั้งการทำ Convolutional Neural Networks (CNN), Multilayer Perceptrons (MLP) และ Long Short-Term Memory (LSTM) ในหนึ่งเดียว ทำให้สามารถนำไปใช้ได้ในงานด้าน Speech, Vision, Natural Language Processing (NLP) ได้อย่างครบถ้วน โดยปัจจุบันนี้ได้มีการทดสอบประสิทธิภาพของชิปในรุ่น Prototype นี้แล้วและพบว่าสามารถทำงานได้ที่ 1.5 ล้านล้าน Floating Point Operations per Second สำหรับความแม่นยำที่ระดับ 16-bit และประสิทธิภาพระดับ 12 ล้านล้าน Floating Point Operations per Second สำหรับความแม่นยำที่ระดับ 2-bit
ที่มา: https://spectrum.ieee.org/tech-talk/semiconductors/processors/ibms-new-doitall-deep-learning-chip