Amazon Web Services (AWS) ได้ประกาฯเปิดตัว Amazon EC2 Instance ใหม่ 3 รุ่นสำหรับรองรับงาน Machine Learning, Deep Learning และ High Performance Computing โดยเฉพาะภายใต้ชื่อรุ่น P3 ที่มาพร้อมกับการ์ด NVIDIA Tesla V100 สูงสุดถึง 8 ใบด้วยกัน
Amazon EC2 P3 นี้ใช้ CPU Intel Xeon E5-2686v4 ที่ออกแบบมาเป็นพิเศษด้วยความเร็ว 2.7GHz และออกมาให้ใช้ด้วยกัน 3 รุ่น ดังนี้
NVIDIA Tesla V100 แต่ละการ์ดนั้นมีจำนวน CUDA Core มากถึง 5,120 Core รวมถึงยังมี Tensor Core แยกต่างหากอีก 640 Core ทำให้สามารถประมวลผลได้ที่ประสิทธิภาพถึงระดับ 125 TFLOPS สำหรับ Mixed-precision Floating Point ต่อการ์ด, 15.7 TFLOPS สำหรับ Single-precision Floating Point ต่อการ์ด และ 7.8 TFLOPS สำหรับ Double-precision Floating Point ต่อการ์ด อีกทั้ง GPU แต่ละการ์ดนั้นยังเชื่อมต่อกันด้วย NVLink ที่ความเร็วสูงสุด 300GBps ด้วย ทำให้การประมวลผลและแลกเปลี่ยนข้อมูลเกิดขึ้นได้อย่างรวดเร็วกว่าหน่วยประมวลผล CPU อย่างมหาศาล
ส่วน Tensor Core ที่มีมาให้ใช้ใน NVIDIA Tesla V100 นี้คือหน่วยประมวลผลที่ออกแบบมาโดยเฉพาะสำหรับการทำ Deep Learning Networks ขนาดใหญ่ โดยแต่ละ Core สามารถทำการคูณเมตริกซ์ขนาด 4×4 แบบ Half-precision และทำการบวกกับเมตริกซ์ขนาด 4×4 แบบ Single-precision หรือ Half-precision ได้อย่างมีประสิทธิภาพ ซึ่งความสามารถนี้เองที่ทำให้การ Train ระบบ Deep Learning นั้นเป็นไปได้อย่างมีประสิทธิภาพมากขึ้น
อย่างไรก็ดี การใช้ Amazon EC2 P3 ให้ได้อย่างมีประสิทธิภาพนี้จะต้องใช้ CUDA 9 หรือ cuDNN7 ซึ่งทาง Amazon ก็ได้รองรับแล้วใน Windows AMI รุ่นล่าสุด และจะรองรับใน Linux AMI รุ่นที่จะเปิดตัวในวันที่ 7 พฤศจิกายนนี้
Amazon EC2 P3 Instance นี้เปิดให้บริการแล้วที่ US East (Northern Virginia), US West (Oregon), EU (Ireland) และ Asia Pacific (Tokyo) Region
ผู้ที่อยากศึกษาเรื่องราวเพิ่มเติมเกี่ยวกับ Amazon Web Services ในไทยสามารถเข้าร่วมกลุ่มของ Bangkok AWS User Group ได้ทันทีที่ https://www.facebook.com/groups/awsusergroup/
ที่มา: https://aws.amazon.com/blogs/aws/new-amazon-ec2-instances-with-up-to-8-nvidia-tesla-v100-gpus-p3/