CDIC 2023

MIT พัฒนาชิปประมวลผล Neural Networks ใหม่ หันกลับสู่โลก Analog ใช้พลังงานน้อยลง 95% แต่เร็วขึ้น 3-7 เท่า

นักวิจัยจาก MIT ได้ทำการพัฒนาชิปสำหรับการประมวลผลด้าน Neural Networks โดยเฉพาะ ซึ่งสามารถทำงานได้เร็วขึ้นกว่าชิปรุ่นก่อน 3-7 เท่า แต่ใช้พลังงานน้อยลง 94-95% ทำให้ในอนาคตนั้นการประมวลผลประสิทธิภาพสูงเหล่านี้อาจเกิดขึ้นได้บนอุปกรณ์ที่อาศัยพลังงานจากแบตเตอรี่อย่างเช่น Smartphone และอุปกรณ์ไฟฟ้าภายในบ้าน

 

MIT researchers have developed a special-purpose chip that increases the speed of neural-network computations by three to seven times over its predecessors, while reducing power consumption 93 to 96 percent. That could make it practical to run neural networks locally on smartphones or even to embed them in household appliances.
Credits
Image: Chelsea Turner/MIT

 

Avishek Biswas นักวิจัยแห่ง MIT ได้ออกมาเล่าว่าระบบประมวลผลแบบเดิมๆ นั้นหลักการคือการย้ายข้อมูลกลับไปกลับมาระหว่างหน่วยประมวลผลและหน่วยความจำ ทำให้ต้องกินพลังงานมากสำหรับการทำ Machine Learning ซึ่งอัลกอริธึมสำหรับทำ Machine Learning เหล่านี้สามารถถูกแปลงให้อยู่ในรูป Dot Product ได้ ทำให้ทางทีมวิจัยทำการวิจัยเพื่อนำความสามารถในการทำ Dot Product เข้าไปอยู่ในหน่วยความจำโดยตรงเลย ทำให้ไม่ต้องทำการย้ายข้อมูลกลับไปกลับมาอีก ช่วยเพิ่มทั้งความเร็วในการประมวลผล และประหยัดพลังงานลงอย่างมหาศาล

แนวคิดของชิปประมวลผลใหม่นี้ถูกเผยแพร่ในงาน International Solid State Circuits Conference โดยการนำแนวคิดการประมวลผลแบบ Analog กลับมาใช้ เนื่องจากระบบ Neural Networks นั้นมักเป็นการประมวลผลที่เกิดขึ้นแบบแบ่งเป็น Layer หรือแบ่งชั้นๆ โดยแต่ละ Node นั้นจะรับข้อมูลจาก Node จำนวนมากใน Layer ก่อนหน้ามาประมวลผล และส่งต่อไปยัง Node จำนวนมากใน Layer ชั้นถัดไป โดยการเชื่อมต่อระหว่าง Node นั้นก็จะมีการถ่วงน้ำหนักในระดับที่แตกต่างกัน โดย Operation หลักๆ ที่เกิดขึ้นนั้นก็คือการบวกและการคูณ หรือเรียกง่ายๆ ก็คือการทำ Dot Product นั่นเอง

ในชิปนี้ได้ทำการเปลี่ยนค่าของ Input ต่างๆ ให้อยู่ในรูปของ Voltage แล้วใช้ค่า Voltage นี้ในการคูณหรือการบวกโดยตรง ก่อนจะแปลงผลลัพธ์กลับมาเป็น Digital ในตอนท้ายเพื่อจัดเก็บผลลัพธ์เอาไว้ โดยชิปรุ่นทดสอบนี้สามารถประมวลผลข้อมูลได้ทีละ 16 Node พร้อมๆ กันในขั้นตอนเดียว ทำให้ลดปริมาณการย้ายข้อมูลระหว่างหน่วยประมวลผลและหน่วยความจำลงไปได้เป็นอย่างมาก

อย่างไรก็ดี ข้อจำกัดของชิปนี้ก็คือการที่สามารถกำหนดค่าถ่วงน้ำหนักสำหรับแต่ละ Node ได้เพียงแค่การใช้ค่า 1 หรือ -1 เท่านั้น ซึ่งก็ทำให้เกิดเป็นผลดีด้วยว่าส่งผลให้การ Implement ระบบนั้นสามารถทำได้อย่างง่ายดายและไม่ซับซ้อน โดยทางทีมงานได้ชี้ว่าจากทฤษฎีที่มีการค้นพบนั้น ระบบ Neural Network ที่ทำการ Train ด้วยค่าถ่วงน้ำหนักเพียงแค่ 2 แบบนี้จะสูญเสียความแม่นยำลงไปน้อยมาก อยู่ที่ประมาณ 1-2% เท่านั้น

Dario Gil ผู้ดำรงตำแหน่ง Vice President ด้าน AI แห่ง IBM ได้ให้ความเห็นว่าเทคโนโลยีนี้อาจทำให้เกิด SRAM-based In-memory Analog Computing สำหรับการทำ Deep Learning โดยเฉพาะได้ในอนาคต และถือเป็นสถาปัตยกรรมที่น่าสนใจมากที่นำการประมวลผลเข้าไปใส่ในหน่วยความจำโดยตรงทำให้การใช้พลังงานนั้นมีความคุ้มค่าสูงยิ่งขึ้น และอาจทำให้การประมวลผลรูปภาพและวิดีโอภายในระบบ IoT แบบซับซ้อนนั้นเป็นจริงขึ้นมาได้ในอนาคต

 

ที่มา: http://news.mit.edu/2018/chip-neural-networks-battery-powered-devices-0214


About techtalkthai

ทีมงาน TechTalkThai เป็นกลุ่มบุคคลที่ทำงานในสาย Enterprise IT ที่มีความเชี่ยวชาญทางด้าน Network, Security, Server, Storage, Operating System และ Virtualization มารวมตัวกันเพื่ออัพเดตข่าวสารทางด้าน Enterprise IT ให้แก่ชาว IT ในไทยโดยเฉพาะ

Check Also

5 เครื่องมือโอเพ่นซอร์สสแกนหาช่องโหว่

หลายท่านอาจคงมีเครื่องมือการสแกนหาช่องโหว่อยู่แล้วในมุมมองต่างๆ แต่ในบทความนี้เราขอพาทุกท่านไปรู้จักกับ 5 เครื่องมือฟรี ที่ช่วยตอบโจทย์การค้นหาช่องโหว่

เดลล์ เทคโนโลยีส์ เปิดตัว Dell APEX Cloud Platform for Microsoft Azure ส่งมอบนวัตกรรมไฮบริดคลาวด์สำหรับองค์กร [Guest Post]

เดลล์ เทคโนโลยีส์ ประกาศความพร้อมของ Dell APEX Cloud Platform for Microsoft ระบบเทิร์นคีย์แบบบูรณาการที่ได้รับการพัฒนาขึ้นด้วยความร่วมมือกับไมโครซอฟท์ เพื่อเสริมเพิ่มเติมประสบการณ์ Microsoft Azure ไฮบริดคลาวด์ ไปยังสภาพแวดล้อมของดาต้าเซ็นเตอร์และระบบเอดจ์ปลายทาง