Google, Microsoft และ xAI ตกลงให้รัฐบาลตรวจความปลอดภัยโมเดล AI ก่อนเปิดตัว

Google, Microsoft และ xAI ได้ตกลงที่จะแชร์โมเดลปัญญาประดิษฐ์เวอร์ชันที่ยังไม่ได้เปิดตัวให้กับกระทรวงพาณิชย์สหรัฐฯ (U.S. Department of Commerce) เพื่อให้แน่ใจว่าเทคโนโลยีเหล่านี้จะไม่ก่อให้เกิดภัยคุกคาม

Credit: NIST

ในวันนี้ศูนย์มาตรฐานและนวัตกรรม AI (Center for AI Standards and Innovation หรือ CAISI) ซึ่งเป็นส่วนหนึ่งของกระทรวงพาณิชย์ ประกาศว่าจะรับผิดชอบในการทดสอบโมเดลดังกล่าวในความพยายามที่จะปกป้องความมั่นคงปลอดภัยแห่งชาติของสหรัฐฯ โดยเน้นไปที่ความมั่นคงปลอดภัยไซเบอร์ ความมั่นคงปลอดภัยทางชีวภาพ และอาวุธเคมี

แม้ว่าฝ่ายบริหารชุดปัจจุบันดูเหมือนจะเปิดกว้างต่อระบบ AI อันทรงพลังและการพัฒนาของระบบเหล่านั้น แต่ความกังวลด้านความปลอดภัยก็เพิ่มสูงขึ้นนับตั้งแต่การเปิดตัวโมเดล Claude Mythos ของ Anthropic แบบจำกัด “วิทยาศาสตร์การวัดผลที่เป็นอิสระและเข้มงวดเป็นสิ่งจำเป็นในการทำความเข้าใจเกี่ยวกับ AI ระดับแนวหน้าและผลกระทบต่อความมั่นคงปลอดภัยแห่งชาติ” Chris Fall ผู้อำนวยการ CAISI กล่าวในแถลงการณ์ “การร่วมมือทางอุตสาหกรรมที่ขยายวงกว้างขึ้นเหล่านี้ช่วยให้เราขยายขนาดการทำงานของเราเพื่อประโยชน์สาธารณะในช่วงเวลาที่สำคัญ”

OpenAI Group และ Anthropic เป็นบริษัท AI กลุ่มแรกที่อนุญาตให้ CAISI ตรวจสอบโมเดลของตนหลังจากทำข้อตกลงกับฝ่ายบริหารของ Biden เมื่อประมาณสองปีที่แล้ว มีรายงานว่า CAISI ได้ดำเนินการประเมินโมเดล AI ไปแล้วหลายสิบรายการ รวมถึงโมเดลล้ำสมัยที่ยังไม่ได้เปิดตัว

The New York Times รายงานเมื่อต้นสัปดาห์นี้ว่าฝ่ายบริหารของ Trump กำลังหารือเกี่ยวกับคำสั่งฝ่ายบริหารที่จะนำผู้บริหารด้านเทคโนโลยีและเจ้าหน้าที่รัฐมารวมกันในคณะทำงาน เพื่อสร้างกระบวนการตรวจสอบอย่างเป็นทางการสำหรับโมเดล AI ใหม่ทั้งหมด นี่จะเป็นการกลับลำของทำเนียบขาวซึ่งก่อนหน้านี้ใช้แนวทางไม่ยุ่งเกี่ยวกับการพัฒนา AI ในขณะที่สหรัฐฯ พยายามนำหน้าจีน

“เราไม่สามารถหยุดมันได้ด้วยการเมือง” Trump กล่าวเมื่อปีที่แล้วในงานอีเวนต์ AI “เราไม่สามารถหยุดมันได้ด้วยกฎเกณฑ์ที่งี่เง่า หรือแม้กระทั่งกฎเกณฑ์ที่โง่เขลา”

แต่ด้วยความกลัวของสาธารณชนเกี่ยวกับ AI ที่เพิ่มขึ้นในเรื่องการตกงาน สุขภาพจิต และความมั่นคงปลอดภัยไซเบอร์ ดูเหมือนว่ารัฐบาลอาจกำลังเคลื่อนไปสู่แนวทางที่ระมัดระวังมากขึ้น ในขณะที่ยังคงระมัดระวังไม่ให้มีการควบคุมที่เข้มงวดจนเกินไป

ที่มา: https://siliconangle.com/2026/05/05/google-microsoft-xai-agree-allow-government-safety-checks-ai-models-prior-release/

About นักเขียนฝึกหัดหมายเลขเก้า

Check Also

VMware เปิดตัว VCF 9.1 ยกระดับ Private Cloud เพิ่มความคุ้มค่าและความปลอดภัย ตอบโจทย์ยุค AI

VMware ได้ประกาศเปิดตัว VMware Cloud Foundation หรือ VCF 9.1 อย่างเป็นทางการ หวังยกระดับ Private Cloud ให้เป็นแพลตฟอร์มที่บริหารจัดการได้ง่าย คุ้มค่าต่อการลงทุน และมาพร้อมกับระบบรักษาความปลอดภัยที่แข็งแกร่งตั้งแต่ระดับโครงสร้างพื้นฐาน …

ทรู ผนึก Google และ อว. ดันโครงการ AI for All Thais ปั้นหลักสูตร AI ลงมหาวิทยาลัย ตั้งเป้าอัปสกิลคนไทย 12 ล้านคน

บมจ. ทรู คอร์ปอเรชั่น ประกาศความร่วมมือระดับประเทศกับ Google และกระทรวงการอุดมศึกษา วิทยาศาสตร์ วิจัยและนวัตกรรม หรือ อว. เปิดตัวโครงการ AI for All Thais …