Breaking News

MIT พัฒนาชิปประมวลผล Neural Networks ใหม่ หันกลับสู่โลก Analog ใช้พลังงานน้อยลง 95% แต่เร็วขึ้น 3-7 เท่า

นักวิจัยจาก MIT ได้ทำการพัฒนาชิปสำหรับการประมวลผลด้าน Neural Networks โดยเฉพาะ ซึ่งสามารถทำงานได้เร็วขึ้นกว่าชิปรุ่นก่อน 3-7 เท่า แต่ใช้พลังงานน้อยลง 94-95% ทำให้ในอนาคตนั้นการประมวลผลประสิทธิภาพสูงเหล่านี้อาจเกิดขึ้นได้บนอุปกรณ์ที่อาศัยพลังงานจากแบตเตอรี่อย่างเช่น Smartphone และอุปกรณ์ไฟฟ้าภายในบ้าน

 

MIT researchers have developed a special-purpose chip that increases the speed of neural-network computations by three to seven times over its predecessors, while reducing power consumption 93 to 96 percent. That could make it practical to run neural networks locally on smartphones or even to embed them in household appliances.
Credits
Image: Chelsea Turner/MIT

 

Avishek Biswas นักวิจัยแห่ง MIT ได้ออกมาเล่าว่าระบบประมวลผลแบบเดิมๆ นั้นหลักการคือการย้ายข้อมูลกลับไปกลับมาระหว่างหน่วยประมวลผลและหน่วยความจำ ทำให้ต้องกินพลังงานมากสำหรับการทำ Machine Learning ซึ่งอัลกอริธึมสำหรับทำ Machine Learning เหล่านี้สามารถถูกแปลงให้อยู่ในรูป Dot Product ได้ ทำให้ทางทีมวิจัยทำการวิจัยเพื่อนำความสามารถในการทำ Dot Product เข้าไปอยู่ในหน่วยความจำโดยตรงเลย ทำให้ไม่ต้องทำการย้ายข้อมูลกลับไปกลับมาอีก ช่วยเพิ่มทั้งความเร็วในการประมวลผล และประหยัดพลังงานลงอย่างมหาศาล

แนวคิดของชิปประมวลผลใหม่นี้ถูกเผยแพร่ในงาน International Solid State Circuits Conference โดยการนำแนวคิดการประมวลผลแบบ Analog กลับมาใช้ เนื่องจากระบบ Neural Networks นั้นมักเป็นการประมวลผลที่เกิดขึ้นแบบแบ่งเป็น Layer หรือแบ่งชั้นๆ โดยแต่ละ Node นั้นจะรับข้อมูลจาก Node จำนวนมากใน Layer ก่อนหน้ามาประมวลผล และส่งต่อไปยัง Node จำนวนมากใน Layer ชั้นถัดไป โดยการเชื่อมต่อระหว่าง Node นั้นก็จะมีการถ่วงน้ำหนักในระดับที่แตกต่างกัน โดย Operation หลักๆ ที่เกิดขึ้นนั้นก็คือการบวกและการคูณ หรือเรียกง่ายๆ ก็คือการทำ Dot Product นั่นเอง

ในชิปนี้ได้ทำการเปลี่ยนค่าของ Input ต่างๆ ให้อยู่ในรูปของ Voltage แล้วใช้ค่า Voltage นี้ในการคูณหรือการบวกโดยตรง ก่อนจะแปลงผลลัพธ์กลับมาเป็น Digital ในตอนท้ายเพื่อจัดเก็บผลลัพธ์เอาไว้ โดยชิปรุ่นทดสอบนี้สามารถประมวลผลข้อมูลได้ทีละ 16 Node พร้อมๆ กันในขั้นตอนเดียว ทำให้ลดปริมาณการย้ายข้อมูลระหว่างหน่วยประมวลผลและหน่วยความจำลงไปได้เป็นอย่างมาก

อย่างไรก็ดี ข้อจำกัดของชิปนี้ก็คือการที่สามารถกำหนดค่าถ่วงน้ำหนักสำหรับแต่ละ Node ได้เพียงแค่การใช้ค่า 1 หรือ -1 เท่านั้น ซึ่งก็ทำให้เกิดเป็นผลดีด้วยว่าส่งผลให้การ Implement ระบบนั้นสามารถทำได้อย่างง่ายดายและไม่ซับซ้อน โดยทางทีมงานได้ชี้ว่าจากทฤษฎีที่มีการค้นพบนั้น ระบบ Neural Network ที่ทำการ Train ด้วยค่าถ่วงน้ำหนักเพียงแค่ 2 แบบนี้จะสูญเสียความแม่นยำลงไปน้อยมาก อยู่ที่ประมาณ 1-2% เท่านั้น

Dario Gil ผู้ดำรงตำแหน่ง Vice President ด้าน AI แห่ง IBM ได้ให้ความเห็นว่าเทคโนโลยีนี้อาจทำให้เกิด SRAM-based In-memory Analog Computing สำหรับการทำ Deep Learning โดยเฉพาะได้ในอนาคต และถือเป็นสถาปัตยกรรมที่น่าสนใจมากที่นำการประมวลผลเข้าไปใส่ในหน่วยความจำโดยตรงทำให้การใช้พลังงานนั้นมีความคุ้มค่าสูงยิ่งขึ้น และอาจทำให้การประมวลผลรูปภาพและวิดีโอภายในระบบ IoT แบบซับซ้อนนั้นเป็นจริงขึ้นมาได้ในอนาคต

 

ที่มา: http://news.mit.edu/2018/chip-neural-networks-battery-powered-devices-0214


About techtalkthai

ทีมงาน TechTalkThai เป็นกลุ่มบุคคลที่ทำงานในสาย Enterprise IT ที่มีความเชี่ยวชาญทางด้าน Network, Security, Server, Storage, Operating System และ Virtualization มารวมตัวกันเพื่ออัพเดตข่าวสารทางด้าน Enterprise IT ให้แก่ชาว IT ในไทยโดยเฉพาะ

Check Also

IBM เผยสร้าง Quantum Safe Tape Drive สำเร็จแล้ว

IBM ได้ออกมาเผยถึงผลงานจากทีม IBM Research ที่ Switzerland ร่วมกับทีม IBM Tape Developer ที่ได้ใช้เวลา 10 เดือนในการพัฒนาเทคโนโลยี Quantum Safe Tape Drive ซึ่งเข้ารหัสข้อมูลบน Tape ด้วยวิธีการที่ทนทานต่อพลังประมวลผลของ Quantum Computer ในอนาคตได้สำเร็จ

ISO ออกมาตรฐานใหม่ ISO/IEC 27701:2019 Privacy Information Management

ISO ประกาศมาตรฐานใหม่ ISO/IEC 27701:2019 Privacy Information Management ซึ่งเป็นส่วนต่อขยายจาก ISO/IEC 27001 และ ISO/IEC 27002 สำหรับเป็นแนวทางให้องค์กรสามารถบริหารจัดการข้อมูลส่วนบุคคลได้อย่างมั่นคงปลอดภัย นำไปประยุกต์ใช้ให้สอดคล้องกับ …