OpenAI ได้เผยผลการวิเคราะห์ที่ทำการศึกษาข้อมูลสถิติมาตั้งแต่ปี 2012 ถึงปริมาณพลังประมวลผลที่ใช้กับระบบ AI ขนาดใหญ่ที่สุด ซึ่งเติบโตขึ้น 2 เท่าในทุกๆ 3.5 เดือน จนทุกวันนี้พลังการประมวลผลที่ใช้สูงขึ้นนั้นเกินกว่า 300,000 เท่าเป็นที่เรียบร้อยแล้ว

ทางทีมของ OpenAI ได้ทำการวิเคราะห์และแบ่งยุคสมัยของเทคโนโลยีทางด้าน AI ออกเป็น 4 ช่วงหลักๆ ด้วยกัน ดังนี้
-
ก่อนปี 2012 เป็นช่วงที่ยังไม่นิยมใช้งาน GPU เพื่อประมวลผลงานทางด้าน Machine Learning มากนัก ทำให้พลังประมวลผลยังถือว่าต่ำ
-
ช่วงปี 2012 – 2014 เป็นช่วงที่เริ่มมีการใช้งาน GPU ตั้งแต่ 1-8 ใบในการเทรนระบบ AI และทำให้มีประสิทธิภาพที่ระดับ 1-2 TFLOPS
-
ช่วงปี 2014 – 2016 เป็นช่วงที่มีการใช้งาน GPU ตั้งแต่ 10-100 ใบในการเทรนระบบ AI และมีประสิทธิภาพในระดับ 5-10 TFLOPS
-
ช่วงปี 2016 – 2017 เป็นช่วงที่เริ่มมีการพัฒนาฮาร์ดแวร์เฉพาะทางสำหรับการประมวลผลและระบบ TPU รวมถึงมีการเชื่อมต่อเครือข่ายความเร็วสูงเกิดมากขึ้น ทำให้สามารถรองรับการประมวลผลที่ซับซ้อนได้ดีขึ้นเป็นอย่างมาก
สำหรับโครงการทางด้านระบบ AI ที่โดดเด่นนั้นก็หนีไม่พ้นโครงการ AlphaGoZero/AlphaZero ซึ่งเป็นตัวอย่างของเหตุการณ์ Massive Algorithm Parallelism ได้เป็นอย่างดี และระบบ Application อื่นๆ ที่มีขนาดใหญ่ระดับนี้และมีความซับซ้อนระดับนี้ก็เริ่มที่จะใกล้ความจริงและก้าวสู่การใช้งานในระดับ Production แล้ว
ส่วนในอนาคต เทคโนโลยีที่น่าจับตามองนั้นก็คือฮาร์ดแวร์ประมวลผลรูปแบบใหม่ๆ จากเหล่าบริษัท Startup, นวัตกรรมใหม่ๆ ทางด้านอัลกอริธึม และการลงทุนทางด้านระบบ AI ที่ยังเติบโตได้อีกมาก