NVIDIA ได้ออกมาประกาศเปิดตัว NVIDIA A100 80GB GPU แล้วอย่างเป็นทางการ โดยเพิ่มหน่วยความจำเป็น 2 เท่าจากรุ่นก่อนหน้า สำหรับรองรับงานประมวลผลทางด้าน AI โดยเฉพาะ
A100 80GB GPU รุ่นนี้จะมาพร้อมกับ HBM2e ที่มีขนาด 80GB สูงกว่ารุ่นก่อนหน้าที่มีขนาดเพียง 40GB ถึงสองเท่า และมี Bandwidth มากถึง 2TB/s ทำให้สามารถรองรับงานประมวลผลประสิทธิภาพสูงที่มีโมเดลขนาดใหญ่หรือมี Dataset ขนาดใหญ่ได้เป็นอย่างดี โดยภายในจะมีการใช้สถาปัตยกรรม NVIDIA Ampere และมีความสามารถที่น่าสนใจดังนี้
- 3rd Generation Tensor Core รองรับ Throughput สำรหับงาน AI ได้มากขึ้น 20 เท่าเมื่อเทียบกับ Volta เมื่อใช้ TF32 และเร็วขึ้น 2.5 เท่าสำหรับ F64 และ 20 เท่าสำหรับ INT8 รวมถึงยังรองรับ BF16 ได้
- HBM2e GPU Memeory ใหญ่ขึ้น 2 เท่า และมี Bandwidth สูงถึง 2TB/s
รองรับเทคโนโลยี MIG โดยมีหน่วยความจำมากขึ้นถึง 2 เท่าสำหรับแต่ละ Isolated Instance โดยรองรับได้มากถึง 7 MIG ที่มี 10GB - ทำ Inference สำหรับ Sparse Model ได้เร็วขึ้นถึง 2 เท่า
- ใช้ 3rd Generation NVLink และ NVSwitch มี Bandwidth แบบ GPU-to-GPU สูงขึ้นสองเท่า สามารถส่งข้อมูลเข้า GPU ได้ด้วยความเร็ว 600GB/s
NVIDIA A100 80GB GPU นี้จะมีให้ใช้งานได้ NVIDIA DGX A100 และ NVIDIA DGX Station A100 ภายในไตรมาสนี้ รวมถึง HGX A100 จากผู้ผลิต Server ชั้นนำเช่น tos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta และ Supermicro ภายในครึ่งแรกของปี 2021