NVIDIA A100 ที่ถูกออกแบบภายใต้สถาปัตยกรรม Ampere 7nm ตัวแรก มี GPU Memory 40 GB และเชื่อมต่อกันระหว่าง GPU ด้วย NVLink Gen 3 ที่ให้ Bandwidth 600 GB/s

วันก่อนที่ทาง Nvidia ได้เปิดเผยภาพวีดีโอเบื้องต้นของ A100 ตัวใหม่นั้น https://www.techtalkthai.com/nvidia-tesla-a100/ ในวันนี้ทาง Nvidia ได้เปิดเผยสเปคทั้งหมด A100 สำหรับงานด้าน AI, Data Analytics และ HPC ในรุ่นนี้มี Tensor Cores Generation ที่ 3 มี TF32 สำหรับช่วยงานประมวลผลด้าน AI ที่สามารถช่วยเร่งการประมวลผลได้สูง 20 เท่าสำหรับ FP32 Precision เปลี่ยนการเชื่อมต่อระหว่าง PCI-e มาเป็น PCI-e Gen 4 ทำให้ตอนนี้ยังมีแต่ AMD EPYC CPU เท่านั้นที่รองรับการใช้งาน มีการรองรับ Multi-Instance GPU โดยสามารถเลือกการทำงานของ GPU สำหรับงานต่างๆ ที่ต้องการได้ เช่นในเครื่องมี 8 GPU สามารถ ให้ 4 GPU สำหรับงานด้าน AI Traning และอีก 4 GPU สำหรับงานด้าน HPC หรือ Data Analytics ได้
