นักวิจัยจาก MIT ได้ทำการพัฒนาชิปสำหรับการประมวลผลด้าน Neural Networks โดยเฉพาะ ซึ่งสามารถทำงานได้เร็วขึ้นกว่าชิปรุ่นก่อน 3-7 เท่า แต่ใช้พลังงานน้อยลง 94-95% ทำให้ในอนาคตนั้นการประมวลผลประสิทธิภาพสูงเหล่านี้อาจเกิดขึ้นได้บนอุปกรณ์ที่อาศัยพลังงานจากแบตเตอรี่อย่างเช่น Smartphone และอุปกรณ์ไฟฟ้าภายในบ้าน

Credits
Image: Chelsea Turner/MIT
Avishek Biswas นักวิจัยแห่ง MIT ได้ออกมาเล่าว่าระบบประมวลผลแบบเดิมๆ นั้นหลักการคือการย้ายข้อมูลกลับไปกลับมาระหว่างหน่วยประมวลผลและหน่วยความจำ ทำให้ต้องกินพลังงานมากสำหรับการทำ Machine Learning ซึ่งอัลกอริธึมสำหรับทำ Machine Learning เหล่านี้สามารถถูกแปลงให้อยู่ในรูป Dot Product ได้ ทำให้ทางทีมวิจัยทำการวิจัยเพื่อนำความสามารถในการทำ Dot Product เข้าไปอยู่ในหน่วยความจำโดยตรงเลย ทำให้ไม่ต้องทำการย้ายข้อมูลกลับไปกลับมาอีก ช่วยเพิ่มทั้งความเร็วในการประมวลผล และประหยัดพลังงานลงอย่างมหาศาล
แนวคิดของชิปประมวลผลใหม่นี้ถูกเผยแพร่ในงาน International Solid State Circuits Conference โดยการนำแนวคิดการประมวลผลแบบ Analog กลับมาใช้ เนื่องจากระบบ Neural Networks นั้นมักเป็นการประมวลผลที่เกิดขึ้นแบบแบ่งเป็น Layer หรือแบ่งชั้นๆ โดยแต่ละ Node นั้นจะรับข้อมูลจาก Node จำนวนมากใน Layer ก่อนหน้ามาประมวลผล และส่งต่อไปยัง Node จำนวนมากใน Layer ชั้นถัดไป โดยการเชื่อมต่อระหว่าง Node นั้นก็จะมีการถ่วงน้ำหนักในระดับที่แตกต่างกัน โดย Operation หลักๆ ที่เกิดขึ้นนั้นก็คือการบวกและการคูณ หรือเรียกง่ายๆ ก็คือการทำ Dot Product นั่นเอง
ในชิปนี้ได้ทำการเปลี่ยนค่าของ Input ต่างๆ ให้อยู่ในรูปของ Voltage แล้วใช้ค่า Voltage นี้ในการคูณหรือการบวกโดยตรง ก่อนจะแปลงผลลัพธ์กลับมาเป็น Digital ในตอนท้ายเพื่อจัดเก็บผลลัพธ์เอาไว้ โดยชิปรุ่นทดสอบนี้สามารถประมวลผลข้อมูลได้ทีละ 16 Node พร้อมๆ กันในขั้นตอนเดียว ทำให้ลดปริมาณการย้ายข้อมูลระหว่างหน่วยประมวลผลและหน่วยความจำลงไปได้เป็นอย่างมาก
อย่างไรก็ดี ข้อจำกัดของชิปนี้ก็คือการที่สามารถกำหนดค่าถ่วงน้ำหนักสำหรับแต่ละ Node ได้เพียงแค่การใช้ค่า 1 หรือ -1 เท่านั้น ซึ่งก็ทำให้เกิดเป็นผลดีด้วยว่าส่งผลให้การ Implement ระบบนั้นสามารถทำได้อย่างง่ายดายและไม่ซับซ้อน โดยทางทีมงานได้ชี้ว่าจากทฤษฎีที่มีการค้นพบนั้น ระบบ Neural Network ที่ทำการ Train ด้วยค่าถ่วงน้ำหนักเพียงแค่ 2 แบบนี้จะสูญเสียความแม่นยำลงไปน้อยมาก อยู่ที่ประมาณ 1-2% เท่านั้น
Dario Gil ผู้ดำรงตำแหน่ง Vice President ด้าน AI แห่ง IBM ได้ให้ความเห็นว่าเทคโนโลยีนี้อาจทำให้เกิด SRAM-based In-memory Analog Computing สำหรับการทำ Deep Learning โดยเฉพาะได้ในอนาคต และถือเป็นสถาปัตยกรรมที่น่าสนใจมากที่นำการประมวลผลเข้าไปใส่ในหน่วยความจำโดยตรงทำให้การใช้พลังงานนั้นมีความคุ้มค่าสูงยิ่งขึ้น และอาจทำให้การประมวลผลรูปภาพและวิดีโอภายในระบบ IoT แบบซับซ้อนนั้นเป็นจริงขึ้นมาได้ในอนาคต
ที่มา: http://news.mit.edu/2018/chip-neural-networks-battery-powered-devices-0214