Nvidia และ AMD ร่วมลงทุนรอบ 100 ล้านดอลลาร์ ของ RadixArk สตาร์ทอัพเครื่องมือ AI

RadixArk สตาร์ทอัพที่จัดหาเครื่องมือสำหรับนักพัฒนาปัญญาประดิษฐ์ ได้ระดมทุน 100 ล้านดอลลาร์จากกลุ่มผู้สนับสนุนระดับแนวหน้า

Credit: RadixArk

Accel เป็นผู้นำในการระดมทุนรอบ Seed ร่วมกับ Spark Capital โดยมีกองทุน NVentures ของ Nvidia, Advanced Micro Devices, Databricks, Hock Tan ประธานเจ้าหน้าที่บริหารของ Broadcom และนักลงทุนรายอื่น ๆ เข้าร่วมด้วย The Wall Street Journal รายงานว่าปัจจุบัน RadixArk มีมูลค่าอยู่ที่ 400 ล้านดอลลาร์

บริษัทกำลังสร้างเครื่องมือพัฒนา AI เชิงพาณิชย์โดยอิงจากโปรเจกต์โอเพนซอร์สสองรายการที่เรียกว่า SGLang และ Miles สมาชิกของทีม RadixArk ได้ช่วยพัฒนาเทคโนโลยีตัวแรกก่อนที่จะมีการเปิดตัวบริษัท ส่วน Miles ได้รับการเปิดให้เป็นโอเพนซอร์สโดย RadixArk เมื่อเดือนพฤศจิกายนปีที่แล้ว

ทีมซอฟต์แวร์สามารถใช้ Miles เพื่อปรับปรุงโปรเจกต์การเรียนรู้แบบเสริมกำลังให้มีประสิทธิภาพยิ่งขึ้น การเรียนรู้แบบเสริมกำลังเป็นวิธีการฝึก AI ที่นิยมใช้ในการพัฒนาโมเดลภาษาขนาดใหญ่ ซึ่ง Miles สามารถบีบอัด LLM ที่มีพารามิเตอร์หนึ่งล้านล้านตัวให้เป็นรูปแบบที่พอดีกับหน่วยความจำของการ์ดจอรุ่นไฮเอนด์เพียงตัวเดียว ซึ่งช่วยลดต้นทุนในการฝึกฝนได้อย่างมาก

ซอฟต์แวร์นี้ยังช่วยปรับปรุงโปรเจกต์ AI ให้มีประสิทธิภาพในด้านอื่น ๆ ด้วย โดยมีสิ่งที่เรียกว่า Asynchronous Co-evolutionary Framework อย่าง MrlX ซึ่งสามารถฝึกเอเจนต์ AI หลายตัวในเวลาเดียวกันด้วยการวางไว้ในสภาพแวดล้อมจำลองเดียวกัน การจัดวางเช่นนี้ช่วยให้เอเจนต์สามารถขัดเกลาความสามารถในการใช้เหตุผลของตนเองได้ด้วยการเรียนรู้จากกันและกัน

หลังจากที่นักพัฒนาฝึก AI ด้วย Miles แล้ว พวกเขาก็สามารถใช้ SGLang เพื่อดำเนินการอนุมานได้ โปรเจกต์หลังนี้เป็นส่วนประกอบพื้นฐานสำหรับการสร้างสภาพแวดล้อมการอนุมาน ตามข้อมูลของ RadixArk ระบุว่า SGLang ขับเคลื่อนคลัสเตอร์ AI ซึ่งประกอบด้วยการ์ดจอมากกว่า 400,000 ตัวรวมกัน

กลไกความใส่ใจของ LLM ซึ่งเป็นโมดูลที่ใช้ในการตีความคำสั่งของผู้ใช้ จะสร้างข้อมูลชั่วคราวในปริมาณมากในขณะที่กำลังประมวลผลพรอมต์ข้อมูลดังกล่าวจะถูกจัดเก็บไว้ในโครงสร้างข้อมูลที่เรียกว่าแคช KV โดยทั่วไป LLM จะล้างแคช KV หลังจากประมวลผลทุกพรอมต์

SGLang ช่วยให้ LLM สามารถนำข้อมูลแคช KV บางส่วนกลับมาใช้ซ้ำข้ามพรอมต์ได้ สิ่งนี้ช่วยหลีกเลี่ยงการสร้างข้อมูลใหม่ทั้งหมดตั้งแต่ต้นหลังจากการร้องขอแต่ละครั้ง ซึ่งช่วยลดค่าใช้จ่ายด้านโครงสร้างพื้นฐานที่เกี่ยวข้อง ยิ่งไปกว่านั้น SGLang ยังช่วยเพิ่มความเร็วในการตอบสนองพรอมต์ในกระบวนการดังกล่าวด้วย

ฟีเจอร์การนำแคช KV กลับมาใช้ซ้ำของเครื่องมือนี้ได้รับการเสริมด้วยการปรับปรุงประสิทธิภาพอื่น ๆ อีกหลายประการ SGLang ใช้วิธีการที่เรียกว่า Speculative Decoding เพื่อถ่ายงานบางส่วนจาก LLM ของแอปพลิเคชันไปยังโมเดลที่เบากว่าและใช้ฮาร์ดแวร์น้อยกว่า นอกจากนี้ เครื่องมือนี้ยังสามารถกระจายการคำนวณที่เกี่ยวข้องกับการประมวลผลพรอมต์ไปยังชิปที่มีสถาปัตยกรรมต่างกันได้ แนวทางดังกล่าวสามารถเพิ่มประสิทธิภาพของโมเดลได้อย่างมากในบางกรณี

ผลิตภัณฑ์เชิงพาณิชย์ที่ RadixArk วางแผนจะสร้างโดยใช้ Miles และ SGLang จะรวมถึง “โครงสร้างพื้นฐานและเครื่องมือพร้อมการจัดการ” ตามรายงานของ Journal บริการเหล่านี้จะช่วยให้ลูกค้าสามารถโฮสต์โมเดล AI ไว้บนคลาวด์ได้ RadixArk ยังวางแผนที่จะปรับปรุงเวอร์ชันโอเพนซอร์สของ SGLang และ Miles ด้วย

ที่มา: https://siliconangle.com/2026/05/05/nvidia-amd-back-100m-round-ai-tooling-startup-radixark/

About นักเขียนฝึกหัดหมายเลขเก้า

Check Also

VMware เปิดตัว VCF 9.1 ยกระดับ Private Cloud เพิ่มความคุ้มค่าและความปลอดภัย ตอบโจทย์ยุค AI

VMware ได้ประกาศเปิดตัว VMware Cloud Foundation หรือ VCF 9.1 อย่างเป็นทางการ หวังยกระดับ Private Cloud ให้เป็นแพลตฟอร์มที่บริหารจัดการได้ง่าย คุ้มค่าต่อการลงทุน และมาพร้อมกับระบบรักษาความปลอดภัยที่แข็งแกร่งตั้งแต่ระดับโครงสร้างพื้นฐาน …

ทรู ผนึก Google และ อว. ดันโครงการ AI for All Thais ปั้นหลักสูตร AI ลงมหาวิทยาลัย ตั้งเป้าอัปสกิลคนไทย 12 ล้านคน

บมจ. ทรู คอร์ปอเรชั่น ประกาศความร่วมมือระดับประเทศกับ Google และกระทรวงการอุดมศึกษา วิทยาศาสตร์ วิจัยและนวัตกรรม หรือ อว. เปิดตัวโครงการ AI for All Thais …