Triton คือโอเพ่นซอร์สจาก OpenAI ซึ่งก็คือภาษาโปรแกรมและคอมไพเลอร์ที่สามารถปรับแต่งงาน Deep Learning ซึ่งมีประสิทธิภาพกว่าการใช้ CUDA

การทำงานกับฮาร์ดแวร์ GPU เป็นหนึ่งในองค์ประกอบของการพัฒนางาน Deep Learning โดยมี Framework ช่วยเหลือหลายตัวเช่น CUDA และ OpenCL แต่ความท้าทายในการ Custom GPU ยังคงมีอยู่เนื่องด้วยสถาปัตยกรรมเปลี่ยนเร็ว ดังนั้นจึงมีการใช้เรื่องของ Domain Specific Language และคอมไพเลอร์เข้ามาช่วยแก้ปัญหา ประเด็นคือวิธีการเหล่านี้ก็ยังไม่ยืดหยุ่นและช้ากว่าการเขียนโค้ดใน Kernel ด้วยไลบรารี cuBLAS, cuDNN หรือ TensorRT แต่ก็ไม่ใช่เรื่อง่ายอยู่ดี
Triton จึงเกิดขึ้นเพื่อทำกระบวนการ Optimize เหล่านี้ให้เกิดขึ้นได้อัตโนมัติ ให้ผู้เขียนโค้ดเอาเวลาไปทำงานด้านลอจิกมากขึ้น ทั้งนี้ Triton ถูกตีพิมพ์ในงานวิชาการปี 2019 ที่พูดถึงเรื่องการพัฒนา Kernel ที่เร็วกว่าการใช้ไลบรารีทั่วไป จนกระทั่งกำเนิดออกมาเป็นงานจริง โดยคอมไพเลอร์จะทำโค้ดให้ง่ายขึ้น ทำการ Optimize และ Parallelize แปลงโค้ดสำหรับการ Execute ด้วย NVidia GPU ผู้สนใจศึกษาเพิ่มเติมได้ที่ https://github.com/openai/triton