มีรายงานว่า OpenAI กำลังเพิ่มระดับความมั่นคงปลอดภัยภายในองค์กร เพื่อปกป้องทรัพย์สินทางปัญญาจากการจารกรรมทางธุรกิจ หลังมีข้อกล่าวอ้างว่าบริษัทถูกเล็งเป้าโดยบริษัทปัญญาประดิษฐ์จากจีน

ตามรายงานของ Financial Times ที่อ้างถึงแหล่งข่าวหลายรายซึ่งใกล้ชิดกับ OpenAI การเปลี่ยนแปลงล่าสุดประกอบด้วยการควบคุมข้อมูลที่อ่อนไหวอย่างเข้มงวดมากขึ้น และการตรวจสอบประวัติพนักงานอย่างละเอียดมากขึ้น
การตัดสินใจเพิ่มความมั่นคงปลอดภัยยังได้รับแรงผลักดันหลังจากที่สตาร์ทอัพ AI จากจีนชื่อ DeepSeek ได้เปิดตัวโมเดล AI คู่แข่งในเดือนมกราคม ซึ่งถูกกล่าวหาว่าใช้ข้อมูลจาก ChatGPT ในการฝึกโมเดลภาษาขนาดใหญ่ที่ชื่อ R1 ซึ่งเป็นกระบวนการที่เรียกว่า “การกลั่นโมเดล” (model distillation) เหตุการณ์ดังกล่าวสร้างความไม่พอใจให้กับ OpenAI อย่างย้อนแย้ง เนื่องจากบริษัทเองก็ฝึกโมเดลด้วยข้อมูลจากอินเทอร์เน็ตสาธารณะจำนวนมาก ซึ่งส่วนใหญ่ไม่ได้รับอนุญาตโดยตรง
OpenAI ได้จัดตั้งมาตรการป้องกันเพื่อไม่ให้เกิดเหตุการณ์ลักษณะเดียวกับ DeepSeek อีก และยังได้ติดตั้งระบบความมั่นคงปลอดภัยเชิงกายภาพเพื่อปกป้องทรัพย์สินทางปัญญาของตน
โครงการภายในของบริษัทในปัจจุบันพัฒนาอยู่ภายใต้ระบบ “tenting” ซึ่งจำกัดการเข้าถึงข้อมูลเฉพาะสมาชิกทีมที่มีสิทธิ์รับรู้เฉพาะโครงการเท่านั้น โครงการสำคัญ เช่น โมเดล o1 ที่พัฒนาขึ้นเมื่อปีที่แล้ว อยู่ภายใต้มาตรการแยกส่วนอย่างเข้มงวด ซึ่งแยกการเข้าถึงโค้ด ข้อมูล และแม้แต่บทสนทนาระหว่างทีมอย่างเด็ดขาด
มาตรการใหม่อื่น ๆ รวมถึงการใช้ระบบยืนยันตัวตนด้วยข้อมูลชีวภาพ เช่น การสแกนลายนิ้วมือเพื่อเข้าใช้งานห้องแล็บที่มีข้อมูลอ่อนไหว รวมทั้งแนวทาง “ปฏิเสธไว้ก่อน” (deny-by-default) ในการเชื่อมต่ออินเทอร์เน็ตภายในระบบขององค์กร โครงสร้างพื้นฐานบางส่วนของบริษัทถูกแยกออกจากเครือข่ายภายนอก (air-gapped) เพื่อให้มั่นใจว่าข้อมูลสำคัญจะไม่เชื่อมโยงกับเครือข่ายภายนอกเลย
นอกจากนี้ บริษัทยังได้เสริมทีมความมั่นคงปลอดภัยทางไซเบอร์และการกำกับดูแล โดยได้ว่าจ้าง Dane Stuckey อดีตหัวหน้าฝ่ายความมั่นคงปลอดภัยของ Palantir Technologies มาเป็นประธานเจ้าหน้าที่ฝ่ายความมั่นคงปลอดภัยสารสนเทศ และแต่งตั้งนายพล Paul Nakasone อดีตนายทหารของกองทัพสหรัฐฯ เข้าร่วมคณะกรรมการบริษัท
แม้มาตรการความมั่นคงปลอดภัยเหล่านี้มีเป้าหมายเพื่อป้องกันทรัพย์สินทางปัญญาของ OpenAI จากสายตาภายนอก แต่ก็ส่งผลกระทบภายในองค์กรเอง โดยเฉพาะอย่างยิ่งทำให้ความร่วมมือระหว่างทีมทำได้ยากขึ้น และทำให้กระบวนการพัฒนาช้าลง “มันเข้มงวดขึ้นมาก — คุณได้ทุกอย่างหรือไม่ก็ไม่ได้อะไรเลย” แหล่งข่าวคนหนึ่งให้สัมภาษณ์กับ FT ก่อนจะเสริมว่า เมื่อเวลาผ่านไป “มีคนจำนวนมากขึ้นที่ได้รับสิทธิ์เข้าถึงข้อมูลที่จำเป็น โดยไม่สามารถเข้าถึงข้อมูลส่วนอื่นได้”
การเปลี่ยนแปลงนี้เป็นส่วนหนึ่งของแนวโน้มในอุตสาหกรรมที่กว้างขึ้น เมื่อ AI เชิงสร้างสรรค์กลายเป็นเทคโนโลยีที่มีมูลค่าทางยุทธศาสตร์และเชิงพาณิชย์สูง การปกป้องโมเดลเหล่านี้จึงมีความสำคัญพอ ๆ กับการสร้างมันขึ้นมา
ที่มา: https://siliconangle.com/2025/07/08/openai-tightens-internal-security-amid-fears-ip-theft-chinese-ai-rivals/
TechTalkThai ศูนย์รวมข่าว Enterprise IT ออนไลน์แห่งแรกในประเทศไทย






