หลายคนคงเคยเห็นคำว่า AI Inference ตามประกาศหน้าข่าวเกี่ยวกับ AI โดยเฉพาะประสิทธิภาพในด้านของฮาร์ดแวร์ว่าจะช่วยกระบวนการ AI Inference ได้ดีขึ้นกี่เท่าหรือกี่ % เทียบกับรุ่นก่อนหน้าหรือผลิตภัณฑ์ของคู่แข่งแล้ว AI Inference มีความหมายอย่างไรกันแน่มาติดตามกันได้ในบทความนี้

AI Inference เป็นการให้คำตอบจากข้อมูลที่มีได้แม้เผชิญกับสถานการณ์ที่แปลกใหม่ ยกตัวอย่างที่เห็นได้ชัดคือรถยนต์ขับเคลื่อนอัตโนมัติ (Self-driving) ที่สามารถตรวจจับป้ายหยุดได้แม้จะเป็นถนนที่ไม่เคยผ่านมาก่อน หรือความสามารถในการทำนายเหตุการณ์จากข้อมูลเดิมที่เคยถูกสอนมา หรือกล่าวคือเป็นการนำโมเดล AI ที่ถูกสอนแล้วไปใช้งานจริงก็ว่าได้
ตัวอย่างของ AI Inference ในอุตสาหกรรมต่างๆ มีอยู่มากมาย เช่น ในวงการ Healthcare ที่ AI จะอ่านประวัติของคนไข้เทียบกับข้อมูลปัจจุบันเพื่อหารูปแบบหรือความผิดปกติต่างๆ หรือในแวดวงการธนาคารที่ AI สามารถช่วยตรวจสอบ Transaction ที่ผิดปกติได้
นอกจากนี้ยังสามารถจำแนก AI Inference ในประเภทต่างๆได้ เช่น การตอบประมวลผลข้อมูลเป็นคาบ(Batch) ตอบสนองแบบทันทีทันใด(ChatGPT คือตัวอย่างที่เห็นได้ชัด) และการตอบสนองที่เรียกว่า Streaming ซึ่งไม่ต้องรอ Prompt หรือการร้องขอ แต่จะรอรับข้อมูลตามลำดับเพื่อทำนาย
ความท้าทายของการทำ AI Inference ก็มักขึ้นกับความซับซ้อนของโมเดล เช่น โมเดลการตรวจสอบความผิดปกติในด้านการเงินหรือการหาความผิดปกติของอาการป่วย ซึ่งเบื้องหลังของโมเดลมักต้องอาศัยข้อมูลจำนวนมหาศาล เมื่อมีความซับซ้อนเกิดขึ้นสิ่งที่ตามมาก็หนีไม่พ้นความสามารถด้านฮาร์ดแวร์ที่ต้องรองรับความซับซ้อนนั้นได้ แถมฮาร์ดแวร์เหล่านี้ยังออกใหม่เรื่อยๆด้วย
ที่มา : https://www.redhat.com/en/topics/ai/what-is-ai-inference และ https://www.cloudflare.com/learning/ai/inference-vs-training/