ห้องปฏิบัติการ Google DeepMind ของ Alphabet ประกาศเปิดตัวเวอร์ชันที่สามของ Frontier Safety Framework เพื่อเสริมสร้างการกำกับดูแลระบบปัญญาประดิษฐ์ขั้นสูงที่อาจก่อให้เกิดความเสี่ยงหากปล่อยทิ้งไว้โดยไม่มีการตรวจสอบ

การปรับปรุงในเวอร์ชันที่สามของเฟรมเวิร์กนี้เพิ่มการมุ่งเน้นไปที่ความสามารถด้านการชักจูง (manipulation) และขยายขอบเขตการตรวจสอบความปลอดภัยให้ครอบคลุมถึงสถานการณ์ที่โมเดลอาจต่อต้านการปิดระบบหรือการควบคุมโดยมนุษย์
ไฮไลท์สำคัญของการอัปเดตครั้งนี้คือการเพิ่มสิ่งที่ DeepMind เรียกว่า Critical Capability Level (CCL) สำหรับการชักจูงที่เป็นอันตราย ซึ่งถูกออกแบบมาเพื่อรับมือกับความเป็นไปได้ที่โมเดลขั้นสูงอาจมีอิทธิพลหรือเปลี่ยนแปลงความเชื่อและพฤติกรรมของมนุษย์ในวงกว้างในบริบทที่มีความเสี่ยงสูง ความสามารถนี้ต่อยอดมาจากการวิจัยหลายปีเกี่ยวกับกลไกการโน้มน้าวและการชักจูงใน AI เชิงสร้างสรรค์ และกำหนดมาตรฐานอย่างเป็นทางการว่าควรมีการวัดผล เฝ้าระวัง และลดความเสี่ยงเหล่านี้อย่างไร ก่อนที่โมเดลจะถึงเกณฑ์วิกฤติ
กรอบงานที่อัปเดตนี้ยังเพิ่มการตรวจสอบอย่างเข้มข้นในประเด็นการไม่สอดคล้องและความท้าทายในการควบคุม โดยพิจารณาถึงความเป็นไปได้ที่ระบบที่มีศักยภาพสูงอาจต่อต้านการแก้ไขหรือการปิดระบบ
DeepMind กำหนดให้ต้องมีการตรวจสอบกรณีความปลอดภัย ไม่เพียงก่อนการใช้งานภายนอก แต่รวมถึงก่อนการนำไปใช้งานภายในในวงกว้างด้วยเมื่อโมเดลถึงเกณฑ์ CCL ที่กำหนด การตรวจสอบเหล่านี้ถูกออกแบบมาเพื่อบังคับให้ทีมงานต้องแสดงหลักฐานว่าความเสี่ยงที่อาจเกิดขึ้นได้รับการจำแนก บรรเทา และประเมินว่าอยู่ในระดับที่ยอมรับได้ก่อนการเปิดใช้งาน
นอกจากนี้ เฟรมเวิร์กใหม่นี้ยังได้ปรับปรุงวิธีที่ DeepMind กำหนดและประยุกต์ใช้ระดับความสามารถ โดยมุ่งให้แยกประเด็นการดำเนินงานทั่วไปออกจากภัยคุกคามที่มีผลลัพธ์ร้ายแรงที่สุดอย่างชัดเจน เพื่อให้กลไกกำกับดูแลถูกกระตุ้นในเวลาที่เหมาะสม
Frontier Safety Framework เน้นว่ามาตรการบรรเทาความเสี่ยงต้องถูกนำมาใช้เชิงรุกก่อนที่ระบบจะก้าวข้ามเส้นเขตอันตราย ไม่ใช่เพียงแก้ไขปัญหาเมื่อเกิดเหตุแล้ว
“การอัปเดตล่าสุดของ Frontier Safety Framework นี้สะท้อนถึงความมุ่งมั่นของเราในการใช้แนวทางเชิงวิทยาศาสตร์และหลักฐานเพื่อติดตามและก้าวนำความเสี่ยงจาก AI ขณะที่ความสามารถก้าวเข้าใกล้ปัญญาประดิษฐ์ทั่วไป” Four Flynn, Helen King และ Anca Dragan แห่ง Google DeepMind กล่าวในบล็อกโพสต์ “ด้วยการขยายขอบเขตความเสี่ยงและเสริมความแข็งแกร่งของกระบวนการประเมินความเสี่ยง เรามุ่งมั่นที่จะทำให้ AI ที่ก่อให้เกิดการเปลี่ยนแปลงครั้งใหญ่ นำประโยชน์มาสู่มนุษยชาติ ในขณะที่ลดอันตรายที่อาจเกิดขึ้นให้น้อยที่สุด”
กลุ่มผู้เขียนยังกล่าวเสริมว่า DeepMind คาดว่า FSF จะพัฒนาต่อไปอย่างต่อเนื่องตามการวิจัยใหม่ๆ ประสบการณ์การใช้งานจริง และข้อเสนอแนะจากผู้มีส่วนเกี่ยวข้อง
ที่มา: https://siliconangle.com/2025/09/22/google-deepmind-expands-frontier-ai-safety-framework-counter-manipulation-shutdown-risks/
TechTalkThai ศูนย์รวมข่าว Enterprise IT ออนไลน์แห่งแรกในประเทศไทย






