IBM Flashsystem

Google DeepMind วางกรอบแนวทางความปลอดภัยสำหรับการพัฒนา AGI ในอนาคต

งานวิจัยฉบับใหม่จาก Google DeepMind Technologies ห้องปฏิบัติการวิจัยปัญญาประดิษฐ์ซึ่งเป็นส่วนหนึ่งของ Alphabet ได้เผยแพร่กรอบแนวทางอย่างครอบคลุมสำหรับการจัดการความเสี่ยงและความรับผิดชอบในการพัฒนา Artificial General Intelligence (AGI) ถือเป็นหนึ่งในความมุ่งมั่นที่ชัดเจนที่สุดของบริษัทในการส่งเสริมความปลอดภัยของ AGI

Credit: Google DeepMind

AGI คือระบบ AI เชิงทฤษฎีที่สามารถทำงานใช้สติปัญญาได้ทุกอย่างเหมือนมนุษย์ โดยมีความสามารถในการประมวลผลข้ามขอบเขตความรู้ แตกต่างจาก AI แบบเฉพาะทางในปัจจุบันซึ่งออกแบบมาเพื่อภารกิจจำเพาะ AGI มีเป้าหมายเพื่อความยืดหยุ่นทางปัญญาอย่างกว้างขวาง สามารถเรียนรู้และปรับตัวในลักษณะที่คล้ายคลึงกับกระบวนการคิดของมนุษย์

พูดให้เข้าใจง่ายขึ้น AGI คือ AI ที่ฉลาดกว่ามนุษย์ — ระบบที่มีความสามารถเหนือกว่ามนุษย์ แต่แม้ว่าการพัฒนา AI ในปัจจุบันจะยังไม่ถึงขั้นนั้น หลายฝ่ายคาดการณ์ว่า AGI อาจเกิดขึ้นจริงภายในเวลาไม่กี่ปี เมื่อถึงจุดนั้น AGI จะนำมาซึ่งการค้นพบที่น่าทึ่ง แต่ก็อาจสร้างความเสี่ยงที่ร้ายแรงด้วยเช่นกัน

Google DeepMind กล่าวถึงความเสี่ยงเหล่านี้ไว้มากมายในรายงานวิจัยแนวทางเพื่อความปลอดภัยและความมั่นคงปลอดภัยเชิงเทคนิคสำหรับ AGI (An Approach to Technical AGI Safety & Security) ซึ่งอธิบายถึงกลยุทธ์ในการพัฒนา AGI อย่างมีความรับผิดชอบ

รายงานได้แบ่งความเสี่ยงของ AGI ออกเป็น 4 ด้านหลัก ได้แก่ การใช้งานในทางที่ผิด ความไม่สอดคล้อง อุบัติเหตุ และความเสี่ยงเชิงโครงสร้าง โดยการใช้งานในทางที่ผิด หมายถึงความกังวลว่า AGI อาจถูกใช้เป็นอาวุธหรือในทางที่เป็นอันตราย ขณะที่ความไม่สอดคล้องหมายถึงความยากลำบากในการทำให้ระบบเหล่านี้ทำงานสอดคล้องกับค่านิยมและเจตนารมณ์ของมนุษย์

อุบัติเหตุ อาจเกิดจากพฤติกรรมที่ไม่คาดคิดหรือความล้มเหลวของระบบขณะปฏิบัติงานในสภาพแวดล้อมที่ซับซ้อน ในขณะที่ความเสี่ยงเชิงโครงสร้าง รวมไปถึงผลกระทบในระดับสังคม เช่น ความปั่นป่วนทางเศรษฐกิจหรือความไม่สมดุลด้านอำนาจ

ตามที่ระบุในรายงาน การแก้ปัญหาความไม่สอดคล้องจะต้องทำให้แน่ใจว่า AGI ได้รับการฝึกฝนให้มีเป้าหมายที่เหมาะสม และสามารถปฏิบัติตามคำสั่งของมนุษย์ได้อย่างแม่นยำ การฝึกฝนระบบ AGI ควรรวมถึงการพัฒนาวิธีการสำหรับการกำกับดูแลที่เข้มข้นขึ้น และการประเมินความไม่แน่นอน เพื่อเตรียมระบบให้พร้อมสำหรับสถานการณ์ที่หลากหลายในโลกแห่งความเป็นจริง

เพื่อบรรเทาภัยคุกคามเหล่านี้ DeepMind จึงมุ่งเน้นไปที่การกำกับดูแลอย่างเข้มข้น เทคนิคการฝึกฝน และเครื่องมือในการประเมินความไม่แน่นอนของผลลัพธ์จาก AGI นอกจากนี้ บริษัทยังวิจัยวิธีการกำกับดูแลที่สามารถปรับขนาดได้ เพื่อให้มั่นใจว่าระบบที่มีความสามารถสูงขึ้นยังคงสอดคล้องกับเจตนาของมนุษย์ แม้จะมีความเป็นอิสระมากขึ้น

รายงานเน้นย้ำถึงความสำคัญของความโปร่งใสและความสามารถในการตีความของระบบ AGI โดย DeepMind ระบุว่าบริษัทกำลังลงทุนอย่างมากในการวิจัยด้านการตีความ เพื่อให้ระบบเหล่านี้เข้าใจได้และสามารถตรวจสอบได้ง่ายขึ้น ซึ่งถือเป็นก้าวสำคัญในการทำให้ระบบ AGI สอดคล้องกับบรรทัดฐานของมนุษย์และใช้งานได้อย่างมีความรับผิดชอบ

แม้ว่ารายงานจะกล่าวถึง AGI ผ่านมุมมองของสิ่งที่ Google DeepMind กำลังดำเนินการอยู่ แต่ก็ระบุว่าไม่ควรมีองค์กรใดองค์กรหนึ่งที่รับผิดชอบการพัฒนา AGI เพียงลำพัง รายงานชี้ให้เห็นว่าการร่วมมือกับชุมชนวิจัยโดยรวม ผู้กำหนดนโยบาย และภาคประชาสังคมจะมีบทบาทสำคัญในการสร้างอนาคตของ AGI ที่มีความปลอดภัย

ที่มา: https://siliconangle.com/2025/04/03/google-deepmind-outlines-safety-framework-future-agi-development/

About นักเขียนฝึกหัดหมายเลขเก้า

Check Also

Google เปิดตัว Google AI Ultra แพ็คเกจสมาชิก AI ระดับสูงสุดในราคา $249.99 ต่อเดือน

Google ประกาศเปิดตัว Google AI Ultra แพ็คเกจสมาชิกใหม่ล่าสุดที่มอบสิทธิการเข้าถึงโมเดล AI ที่ทรงพลังที่สุดและฟีเจอร์พรีเมียมในราคา $249.99 ต่อเดือน พร้อมโปรโมชั่นลด 50% สำหรับผู้ใช้งานใหม่ในช่วง 3 เดือนแรก

Red Hat เปิดตัวฟีเจอร์ใหม่ด้าน Hybrid Cloud พร้อม AI Assistant และระบบจัดการ Edge

Red Hat ประกาศเปิดตัวชุดเครื่องมือใหม่ มุ่งเน้นการเพิ่มประสิทธิภาพและลดความซับซ้อนในการทำงานบน Hybrid Cloud และ Edge Computing พร้อมประกาศความร่วมมือกับ AMD