Google DeepMind ขยาย Frontier Safety Framework เพื่อรับมือความเสี่ยง AI ด้านการชักจูงและปิดระบบ

ห้องปฏิบัติการ Google DeepMind ของ Alphabet ประกาศเปิดตัวเวอร์ชันที่สามของ Frontier Safety Framework เพื่อเสริมสร้างการกำกับดูแลระบบปัญญาประดิษฐ์ขั้นสูงที่อาจก่อให้เกิดความเสี่ยงหากปล่อยทิ้งไว้โดยไม่มีการตรวจสอบ

Credit: Google DeepMind

การปรับปรุงในเวอร์ชันที่สามของเฟรมเวิร์กนี้เพิ่มการมุ่งเน้นไปที่ความสามารถด้านการชักจูง (manipulation) และขยายขอบเขตการตรวจสอบความปลอดภัยให้ครอบคลุมถึงสถานการณ์ที่โมเดลอาจต่อต้านการปิดระบบหรือการควบคุมโดยมนุษย์

ไฮไลท์สำคัญของการอัปเดตครั้งนี้คือการเพิ่มสิ่งที่ DeepMind เรียกว่า Critical Capability Level (CCL) สำหรับการชักจูงที่เป็นอันตราย ซึ่งถูกออกแบบมาเพื่อรับมือกับความเป็นไปได้ที่โมเดลขั้นสูงอาจมีอิทธิพลหรือเปลี่ยนแปลงความเชื่อและพฤติกรรมของมนุษย์ในวงกว้างในบริบทที่มีความเสี่ยงสูง ความสามารถนี้ต่อยอดมาจากการวิจัยหลายปีเกี่ยวกับกลไกการโน้มน้าวและการชักจูงใน AI เชิงสร้างสรรค์ และกำหนดมาตรฐานอย่างเป็นทางการว่าควรมีการวัดผล เฝ้าระวัง และลดความเสี่ยงเหล่านี้อย่างไร ก่อนที่โมเดลจะถึงเกณฑ์วิกฤติ

กรอบงานที่อัปเดตนี้ยังเพิ่มการตรวจสอบอย่างเข้มข้นในประเด็นการไม่สอดคล้องและความท้าทายในการควบคุม โดยพิจารณาถึงความเป็นไปได้ที่ระบบที่มีศักยภาพสูงอาจต่อต้านการแก้ไขหรือการปิดระบบ

DeepMind กำหนดให้ต้องมีการตรวจสอบกรณีความปลอดภัย ไม่เพียงก่อนการใช้งานภายนอก แต่รวมถึงก่อนการนำไปใช้งานภายในในวงกว้างด้วยเมื่อโมเดลถึงเกณฑ์ CCL ที่กำหนด การตรวจสอบเหล่านี้ถูกออกแบบมาเพื่อบังคับให้ทีมงานต้องแสดงหลักฐานว่าความเสี่ยงที่อาจเกิดขึ้นได้รับการจำแนก บรรเทา และประเมินว่าอยู่ในระดับที่ยอมรับได้ก่อนการเปิดใช้งาน

นอกจากนี้ เฟรมเวิร์กใหม่นี้ยังได้ปรับปรุงวิธีที่ DeepMind กำหนดและประยุกต์ใช้ระดับความสามารถ โดยมุ่งให้แยกประเด็นการดำเนินงานทั่วไปออกจากภัยคุกคามที่มีผลลัพธ์ร้ายแรงที่สุดอย่างชัดเจน เพื่อให้กลไกกำกับดูแลถูกกระตุ้นในเวลาที่เหมาะสม

Frontier Safety Framework เน้นว่ามาตรการบรรเทาความเสี่ยงต้องถูกนำมาใช้เชิงรุกก่อนที่ระบบจะก้าวข้ามเส้นเขตอันตราย ไม่ใช่เพียงแก้ไขปัญหาเมื่อเกิดเหตุแล้ว

“การอัปเดตล่าสุดของ Frontier Safety Framework นี้สะท้อนถึงความมุ่งมั่นของเราในการใช้แนวทางเชิงวิทยาศาสตร์และหลักฐานเพื่อติดตามและก้าวนำความเสี่ยงจาก AI ขณะที่ความสามารถก้าวเข้าใกล้ปัญญาประดิษฐ์ทั่วไป” Four Flynn, Helen King และ Anca Dragan แห่ง Google DeepMind กล่าวในบล็อกโพสต์ “ด้วยการขยายขอบเขตความเสี่ยงและเสริมความแข็งแกร่งของกระบวนการประเมินความเสี่ยง เรามุ่งมั่นที่จะทำให้ AI ที่ก่อให้เกิดการเปลี่ยนแปลงครั้งใหญ่ นำประโยชน์มาสู่มนุษยชาติ ในขณะที่ลดอันตรายที่อาจเกิดขึ้นให้น้อยที่สุด”

กลุ่มผู้เขียนยังกล่าวเสริมว่า DeepMind คาดว่า FSF จะพัฒนาต่อไปอย่างต่อเนื่องตามการวิจัยใหม่ๆ ประสบการณ์การใช้งานจริง และข้อเสนอแนะจากผู้มีส่วนเกี่ยวข้อง

ที่มา: https://siliconangle.com/2025/09/22/google-deepmind-expands-frontier-ai-safety-framework-counter-manipulation-shutdown-risks/

About นักเขียนฝึกหัดหมายเลขเก้า

Check Also

Elastic 9.4 ออกแล้ว

Elastic ได้ออกมาประกาศเปิดตัว Elastic 9.4 อย่างเป็นทางการ โดยเพิ่มความสามารถในการตรวจสอบการทำงานของ Context Engineering, Application และ Infrastructure เพิ่มเติม, เสริม AI ในการรักษาความมั่นคงปลอดภัย และเพิ่มความสามารถอื่นๆ อีกมากมาย ดังนี้

Extreme Networks เปิดตัว Wi-Fi 7 AP รุ่นใหม่ พร้อม Agentic AI สำหรับบริหารจัดการระบบเครือข่ายแบบอัตโนมัติ

Extreme Networks ได้ออกมาประกาศถึงอัปเดตครั้งใหญ่ โดยเปิดตัว Wi-Fi 7 Access Point รุ่นใหม่ล่าสุด 5 รุ่น พร้อมนวัตกรรมใหม่ในการบริหารจัดการระบบเครือข่ายด้วย AI Agent เพื่อดูแลรักษาระบบเครือข่ายขององค์กรให้ทำงานได้อย่างต่อเนื่องโดยอัตโนมัติ