CrowdStrike เปิดตัวเครื่องมือใหม่ บล็อกโมเดล AI อันตรายและการลอบขโมยข้อมูล

CrowdStrike ได้เปิดตัวฟีเจอร์ใหม่ที่ช่วยให้องค์กรสามารถปกป้องพนักงานจากโมเดลปัญญาประดิษฐ์ที่เป็นอันตรายและภัยคุกคามอื่น ๆ ได้ โดยฟีเจอร์เหล่านี้จะถูกรวมไว้ใน Falcon แพลตฟอร์มด้านความมั่นคงปลอดภัยเรือธงของบริษัท ฟีเจอร์แรกที่เปิดตัวคือ AI Model Scanning ซึ่งมีความสามารถในการตรวจจับโมเดลที่เรียกว่า “trojanized” หรือโมเดล AI ที่ดูเหมือนจะทำงานตามปกติในสถานการณ์ทั่วไป แต่สามารถสร้างผลลัพธ์ที่เป็นอันตรายได้เมื่อได้รับคำสั่งเฉพาะบางอย่าง ตัวอย่างเช่น แฮ็กเกอร์อาจตั้งค่าให้ผู้ช่วยด้านการเขียนโค้ดให้คำแนะนำที่ผิดพลาดเมื่อมีนักพัฒนาขอวิธีการลบช่องโหว่ในโค้ดของตน อาชญากรไซเบอร์สร้างโมเดลประเภทนี้โดยการฝังข้อมูลที่เป็นอันตรายลงในการฝึกสอนของโมเดล หรือโดยการแก้ไขค่าน้ำหนักของโครงข่ายประสาทเทียม ซึ่งเป็นการตั้งค่าที่กำหนดว่าโมเดลจะประมวลผลคำสั่งอย่างไร นอกจากโมเดล trojanized แล้ว AI Model Scanning ยังสามารถตรวจจับ backdoor และภัยคุกคามอื่น ๆ ได้ โดยใช้เทคโนโลยีที่เรียกว่า ExPRT.AI ในการจัดอันดับความรุนแรงของปัญหาที่ตรวจพบ ExPRT.AI ใช้ข้อมูลข่าวกรองภัยคุกคามจากแคมเปญการแฮ็กเพื่อตัดสินว่าช่องโหว่ใดมีโอกาสถูกโจมตีมากที่สุด AI Model Scanning จะเปิดตัวพร้อมกับฟีเจอร์ใหม่อีกอย่างหนึ่งคือ AI Security Dashboard ซึ่งช่วยให้ผู้ดูแลระบบสามารถตรวจจับการใช้งาน AI ที่ไม่ได้รับอนุญาตภายในองค์กร หรือที่เรียกว่า “shadow AI” และติดตามการใช้งานข้อมูลการฝึกสอน AI ภายในองค์กรได้ แพลตฟอร์ม … Continue reading CrowdStrike เปิดตัวเครื่องมือใหม่ บล็อกโมเดล AI อันตรายและการลอบขโมยข้อมูล