ยิบอินซอยชี้ เติมมิติการจัดการความปลอดภัยให้เจเนอเรทีฟ เอไอ [PR]

การพัฒนาขีดความสามารถอย่างก้าวกระโดดของเจเนอเรทีฟ เอไอ (Generative AI) ในระดับที่สามารถประมวลผลข้อมูลที่มีอยู่เดิม มาสังเคราะห์เป็นชุดข้อมูลใหม่ในรูปแบบที่หลากหลาย ไม่ว่าจะเป็นข้อความ ภาพ เสียง วิดีโอ ที่โต้ตอบได้สมจริง ซึ่งถูกนำมาใช้ขับเคลื่อนบริการทางธุรกิจ การสร้างสรรค์ผลิตภัณฑ์ การพัฒนากลยุทธ์การตลาด และการสร้างประสบการณ์ที่ดีให้กับลูกค้าได้มีประสิทธิภาพมากกว่าเดิม

แต่ “เหรียญมักมีสองด้านเสมอ” เมื่อโลกเริ่มตั้งคำถามถึงด้านมืดของเจเนอเรทีฟ เอไอ เช่น Deepfakes ซึ่งเป็นการใช้เทคโนโลยี AI เพื่อสร้างวิดีโอหรือภาพที่ปลอมแปลงบุคคลหรือเหตุการณ์ โดยการสอนเอไอด้วยข้อมูลที่มีอคติหรือผิดพลาด อาจทำให้ได้ผลลัพธ์ที่บิดเบือนความเป็นจริง และเมื่อนำข้อมูลที่บิดเบือนความจริงไปใช้ อาจจะก่อให้เกิดผลกระทบต่อชื่อเสียงองค์กรและแบรนด์ และ Hallucination ซึ่งหมายถึงการที่เอไอสร้างข้อมูลหรือคำตอบที่ไม่สอดคล้องกับข้อมูลจริงหรือข้อเท็จจริงที่มีอยู่ การเกิด Hallucination มักเกิดขึ้นเนื่องจากความซับซ้อนในกระบวนการคิดวิเคราะห์ของโมเดลหรืออัลกอริทึม ทำให้ผลลัพธ์ที่ได้ไม่ถูกต้องหรือเชื่อถือได้น้อย

บทความนี้จัดทำโดย คุณกฤตวร ตังประเสริฐผล Section Manager – Data Analytic Solution และคุณสมิต บุญทิวาพร Technical Lead บริษัท ยิบอินซอย จำกัด

คลี่จุดเสี่ยงเจเนอเรทีฟ เอไอ

ภูมิทัศน์ด้านความปลอดภัยของเจเนอเรทีฟ เอไอกำลังเปลี่ยนไป ความก้าวหน้าทางเทคโนโลยีใหม่ทำให้ความต้องการใช้งานเพิ่มขึ้นจนแซงหน้าการล้อมรั้วป้องกันไปแล้ว อะเมซอน เว็บ เซอร์วิสเซส ( Amazon Web Services-AWS) เปิดเผยว่า 71% ของผู้นำไอทีอาวุโสรู้สึกว่า เจเนอเรทีฟ เอไอ กำลังสร้างความเสี่ยงรูปแบบใหม่ และกว่า 51% ของคนทำงานในองค์กรมักไม่รู้เรื่องนโยบายเกี่ยวกับเจเนอเรทีฟ เอไอ หรือไม่มีนโยบายเกี่ยวกับเรื่องดังกล่าวในองค์กรเลย เนื่องจากสิ่งเหล่านี้เป็นสิ่งใหม่ที่เกิดขึ้นมาและมีความน่าสนใจหลายๆอย่างทำให้อาจจะก่อให้เกิดความละเลยในด้านความปลอดภัยได้

หากพิจารณาองค์ประกอบของการพัฒนาแอปพลิเคชันในแบบเจเนอเรทีฟ เอไอ ซึ่งมีโมเดลพื้นฐาน (Foundation Models-FM) ที่ได้รับการฝึกฝนด้วยการวิเคราะห์ชุดข้อมูลปริมาณมหาศาล อาทิ ข้อมูลจากการดำเนินงาน ทรัพย์สินทางปัญญา ข้อมูลเกี่ยวกับลูกค้า หรือข้อมูลอ่อนไหวอื่น ๆ ที่องค์กรมีอยู่ โดยโมเดลพื้นฐานนี้จะทำการวิเคราะห์ข้อมูลทั้งหลาย เพื่อกำหนดแบบแผนและการเรียนรู้ในการดำเนินการกับเนื้อหาใหม่ที่มีความคล้ายคลึงกัน นำไปสู่การสร้างโมเดลเอไอ (AI Model) หรือแอปพลิเคชันที่เป็นเจเนอเรทีฟ เอไอ ให้เหมาะกับความต้องการของธุรกิจ ด้วยเหตุนี้ การดูแลความปลอดภัยและการตรวจสอบข้อมูลก่อนป้อนเข้าสู่ระบบจึงมีความสำคัญสูง รวมถึงต้องให้ความใส่ใจในโมเดลเอไอที่ถูกพัฒนาขึ้นมา ให้แสดงผลได้อย่างแม่นยำและเที่ยงตรง

บริษัทที่ปรึกษาPwCประเมินความเสี่ยงการใช้งานเจเนอเรทีฟ เอไอ ที่องค์กรพึงเข้าใจและวางแผนรับมือออกเป็น 4 ประการด้วยกัน คือ “ความเสี่ยงเรื่องข้อมูล (Data risks)” ที่เกิดจากความผิดพลาดโดยตัวข้อมูลเอง ทรัพย์สินทางปัญญา หรือข้อมูลที่อยู่ในเงื่อนไขสัญญาหรือข้อตกลง ซึ่งอาจไม่ได้รับอนุญาตให้ใช้ รวมถึงข้อมูลด้อยคุณภาพที่นำมาใช้ฝึกฝนหรือสร้างโมเดลเอไอ จนได้ผลลัพธ์เป็นเนื้อหาที่ก่อให้เกิดความเข้าใจผิด หรือเป็นอันตราย “ความเสี่ยงของโมเดลเอไอที่มีอคติ ( Model and bias risks)” โดยเฉพาะกับการพัฒนาโมเดลภาษาขนาดใหญ่ (Large language model-LLMs) ที่อาจเกิดช่องโหว่เรื่องหลักจริยธรรม ความรับผิดชอบ และเกิดการเลือกปฏิบัติ เช่น การโต้ตอบด้วยเนื้อหาที่เป็นลบต่อความรู้สึก (Toxic) หรือใช้ภาษาหยาบคาย “ความเสี่ยงในการป้อนข้อมูลหรือคำสั่ง (Prompt or input risks)”เช่น การป้อนคำสั่งหรือคำถามที่ไม่ชัดเจนให้กับโมเดลเอไอ ทำให้ได้คำตอบที่สร้างความเข้าใจผิด ไม่ถูกต้องเที่ยงตรง และสุดท้าย “ความเสี่ยงโดยผู้ใช้งาน (User risks)”โดยส่วนใหญ่เป็นการสร้างและส่งต่อเนื้อหาที่ให้ข้อมูลผิด ๆ หรือเป็นอันตรายโดยไม่ตั้งใจหรือไม่รู้ตัว เช่น การส่งต่อภาพลวงที่สร้างจากเอไอแต่เข้าใจว่าเป็นภาพจริง

ป้องกันอย่างไร? หากองค์กรอยากใช้เจเนอเรทีฟ เอไอ

อะเมซอน เว็บ เซอร์วิสเซส แนะแนวทางการใช้งานเจเนอเรทีฟ เอไอ อย่างมีประสิทธิภาพและปลอดภัยสำหรับธุรกิจ ได้แก่

“การดูแลความปลอดภัยบนคลาวด์” ซึ่งเป็นโครงสร้างพื้นฐานที่รองรับการทำงานทั้งเอไอและ เจเนอเรทีฟ เอไอ เช่น การจัดการตัวตนและการเข้าถึงทรัพยากร (Identity and access management-IAM) การตรวจจับและตอบสนองต่อภัยคุกคาม (Detection and response) การปกป้องโครงสร้างพื้นฐาน (Infrastructure protection) การปกป้องข้อมูล (Data protection) และการดูแลความปลอดภัยให้กับแอปพลิเคชัน (App security)

“การปกป้องความเป็นส่วนตัวของข้อมูล” โดยเฉพาะอย่างยิ่งข้อมูลที่ถูกนำมาใช้ฝึกสอนเจเนอเรทีฟ เอไอ อย่างการจัดการเรื่อง IAM ที่มีประสิทธิภาพ จะช่วยควบคุมคนหรือแมชชีนในการเข้าถึงทรัพยากรภายใต้เงื่อนไขที่ถูกต้อง

“การปกป้องเจเนอเรทีฟ เอไอในระดับแอปพลิเคชัน” ด้านหนึ่งเพื่อเป็นการป้องกันข้อมูล (Input) ที่ป้อนเข้าสู่เจเนอเรทีฟ เอไอ การคัดกรองการเข้าถึงโมเดลพื้นฐานเพื่อป้องกันการเข้ามาปลอมแปลงข้อมูล ป้องกันการส่งคำสั่งให้เจเนอเรทีฟ เอไอ ล้วงข้อมูลหรือโจมตีตัวเอง ตลอดจนเป็นโอกาสในการกำกับดูแลคุณภาพของข้อมูล การศึกษารูปแบบภัยคุกคาม และสร้างการตรวจสอบอย่างต่อเนื่อง ขณะที่อีกด้านหนึ่งถือเป็นการป้องกันผลลัพธ์ (Output) ให้ออกมาอย่างถูกต้อง รวมถึงป้องกันพฤติกรรมการใช้งานแบบผิด ๆ หรือดูซับซ้อนน่าสงสัย จนเกิดผสเสียกับองค์กร

และ “การป้องกันตัวโมเดล” ที่มักโดนยักย้ายถ่ายเทข้อมูลระหว่างทาง การโจมตีองค์ประกอบที่เกี่ยวข้อง ทำให้แสดงผลแบบผิด ๆ ซึ่งทำลายความถูกต้องเที่ยงตรง หรือทำให้โมเดลเอไอไม่มีความพร้อมเมื่อต้องการใช้งาน

ส่วนไอบีเอ็ม กล่าวว่า 96% ของผู้บริหารองค์กรเห็นว่า การใช้เจเนอเรทีฟ เอไออาจทำให้ช่องโหว่ด้านความปลอดภัยเพิ่มขึ้นใน 3-5 ปี ข้างหน้า เพราะถึงแม้รูปแบบของเอไอทำให้องค์กรได้ใช้ประโยชน์จากข้อมูลที่มีอยู่ แต่มีเดิมพันสูงหากรูปแบบที่นำเข้ามานั้น ไม่ปลอดภัยต่อสภาพแวดล้อมการทำงานและการดำเนินธุรกิจ

ดังนั้น หากองค์กรต้องการลดความเสี่ยงลง นอกจากการดูแลความปลอดภัยของข้อมูลและ อินฟราสรัคเจอร์โดยพื้นฐานในการสร้างเจเนอเรทีฟ เอไอแล้ว ยังต้องคำนึงถึงผู้มีส่วนเกี่ยวข้อง อาทิ นักวิทยาศาสตร์ข้อมูล วิศวกรข้อมูล นักพัฒนา หรือยูสเซอร์ ที่มีบทบาทเกี่ยวข้องกับการพัฒนาโมเดลเอไอ หรือแอปพลิเคชันในแบบเจเนอเรทีฟเอไอ เพื่อสร้างการตระหนักรู้ถึงความปลอดภัยในการเข้าถึงข้อมูล แมชชีนเลิร์นนิง ดีพเลิร์นนิง เช่น ระวังการนำแมชชีนเลิร์นนิงที่เป็นโอเพนซอร์สบนออนไลน์มาใช้โดยไม่คำนึงถึงแหล่งที่มา ทำให้ขาดการควบคุมปลอดภัยอย่างรอบด้าน การอัปโหลดโมเดลขึ้นไปเก็บบนพื้นที่เก็บรวบรวมโมเดลออนไลน์ (Online model repositories) แล้วเกิดติดมัลแวร์ขึ้นมา การโจมตีผ่านช่องทางการเชื่อมต่อระหว่างแอปพลิเคชัน (Application programming interface-API) เพื่อเข้าถึงข้อมูลที่กำลังเคลื่อนย้ายไปมา เช่น ข้อมูลในโมเดลภาษาขนาดใหญ่ หรือการเชื่อมต่อที่มาจากโมเดลเอไอของบุคคลที่สาม ซึ่งองค์กรอาจแก้เกมด้วยการควบคุมการเข้าใช้งานตามบทบาทหน้าที่ (Roles based access control-RBAC) เพื่อไม่ให้ใครก็ได้สามารถเข้าถึงข้อมูลทั้งหมด หรือไม่ให้เข้าถึงฟังก์ชันการทำงานของโมเดลเอไอได้ทุกโมเดล รวมถึงควรการกำหนดมาตรฐานความปลอดภัยในการใช้งานอุปกรณ์ต่าง ๆ

ที่สำคัญ คือ ธรรมาภิบาลในการสร้างและใช้งานโมเดลเอไอ หรือเจเนอเรทีฟ เอไอบนความรับผิดชอบ โดยเฉพาะการสอดส่องและจัดการรูปแบบการวิเคราะห์ข้อมูล หรืออัลกอริทึมต่าง ๆ ให้มีความเป็นธรรมและปราศจากอคติอยู่เสมอ หมั่นตรวจสอบชุดข้อมูลเก่า-ใหม่และบริบทไหนที่สมควรเอาออกไป เพื่อป้องกันความยุ่งยากซับซ้อน เพราะนับวันการพัฒนาโมเดลเอไอและแอปพลิเคชันที่เป็นเจเนอเรทีฟ เอไอจะยิ่งมีปริมาณมากขึ้น การนำผู้เชี่ยวชาญที่มีประสบการณ์มาร่วมตรวจสอบความถูกต้องของผลลัพธ์ เพื่อป้องกันไม่ให้เจเนอเรทีฟ เอไอปล่อยเนื้อหาที่เป็นพิษภัย (Toxic) ออกมาเสียเอง ก็มีส่วนช่วยผ่อนหนักให้เป็นเบาได้เช่นกัน

ปัจจุบัน มีการพัฒนาเครื่องมือเพิ่มความปลอดภัยในการพัฒนาแอปพลิเคชันที่ใช้เจเนอเรทีฟ เอไอ เช่น Guardrails AI, Guardrails hub และ Validators ในการร่วมตรวจสอบข้อมูลขาเข้าและขาออก เช่น ข้อมูลที่ไม่เป็นกลาง ผลลัพธ์ที่ไม่เกิดประโยชน์ การจัดการกับโมเดลภาษาขนาดใหญ่ที่มีข้อมูลอยู่มากให้อยู่ในรูปแบบที่ชัดเจนและใช้งานง่าย ตัวอย่างเช่น การระบุให้ลบภาษาที่ไม่เหมาะสม วลีที่มีอคติ ถ้อยคำที่

ท็อกซิกออกจากข้อมูลการฝึกเอไอ การควบคุมแชตบอตให้ตอบคำถามเฉพาะในขอบเขตที่ต้องการ นอกจากนี้ ผู้ให้บริการคลาวด์อย่างอะเมซอน ได้พัฒนาบริการด้านความปลอดภัยเพื่อตอบสนองการใช้งานเจเนอเรทีฟ เอไอให้ครอบคลุมมากขึ้น เช่น Amazon Macie ความปลอดภัยด้านข้อมูลที่ใช้แมชชีนเลิร์นนิง ซึ่งช่วยให้องค์กรจำแนกข้อมูลอ่อนไหวและป้องกันเสียก่อนที่จะถูกโจมตี Amazon GuardDuty ในการป้องกันภัยคุกคามที่ค้นพบได้ยาก เช่น การใช้งาน API หรือพฤติกรรมการใช้งานโมเดลภาษา LLMs ที่หวังผลร้าย Amazon Bedrock ที่จะช่วยปรับแต่งโมเดลพื้นฐานให้มีประสิทธิภาพพร้อมใช้งานมากขึ้น หรือ แพลตฟอร์ม IBM® watsonx.governance™ จากไอบีเอ็ม ที่ออกแบบมาเพื่อช่วยองค์กรในการใช้โมเดลเอไอขนาดใหญ่ให้ได้ผลลัพธ์ที่ปราศจากอคติ ถูกต้องตามความเป็นจริง และสามารถอธิบายได้ เป็นต้น

แม้เอไอและเจเนอเรทีฟ เอไอจะถูกสร้างมาให้มีสติปัญญาเทียบเคียงมนุษย์ที่ให้ทั้งคุณและโทษได้ แต่หากสามารถวางมาตรการความปลอดภัยและการกำกับด้วยธรรมธิบาลที่ดีพอ เครื่องมือเหล่านี้จะกลายเป็นอาวุธสำคัญในการขับเคลื่อนธุรกิจ และสร้างความได้เปรียบในการแข่งขันที่ยั่งยืน

แหล่งที่มา

  • Amazon Web Services, 2023, “GENERATIVE AI The future of generative AI is secure – with AWS”, http://aws.amazon.com
  • Amazon Web Services, 2024, “Answering your 4 biggest questions about generative AI security” http://aws.amazon.com
  • ETDA, August 09, 2023, “รู้ทัน AI Deepfake เมื่อภาพที่เห็น เสียงที่ได้ยิน อาจไม่ใช่เรื่องจริงเสมอไป”, http://www.etda.or.th
  • PwC, May, 2023, “Managing the risks of generative AI”, http://www.pwc.com
  • Ryan Dougherty, January 25, 2024, “Introducing the IBM Framework for Securing Generative AI”, http://www.ibm.com
  • SCB 10x, April 09, 2024, “รู้จัก Guardrails AI และ Guardrails Hub” ตัวช่วยสร้างแอปพลิเคชัน AI ให้สมบูรณ์กว่าที่เคย, http://www.scb10x.com
  • Vulture Prime, December 2, 2023, “OpenAI with Guardrail”, http:// www.vultureprime.com

ที่มา:

About chatchai

Tech Writer แห่ง TechTalk Thai ที่สนใจในทุกนวัตกรรมและเทคโนโลยี

Check Also

ASUS พร้อมเดินหน้าพัฒนา NUC แบบคัสตอม

หนึ่งปีผ่านไปหลังจากที่ ASUS ได้รับสิทธิ์ในการผลิตมินิพีซี Next Unit of Compute (NUC) ตามสเปคของ Intel บริษัทก็ได้ประกาศความสำเร็จในการสร้างเสถียรภาพให้กับสายผลิตภัณฑ์รวมถึงทีมงานที่เกี่ยวข้องและความพร้อมที่จะลงมือสร้างนวัตกรรมใหม่ ๆ ต่อไป

[NETIZEN Webinar EP.1] How Can SAP AI Copilot Joule Help You Revolutionize Your Business?

NETIZEN ร่วมกับ SAP ขอเชิญเข้าร่วมงานสัมมนาออนไลน์เรื่อง “How Can SAP AI Copilot Joule Help You Revolutionize Your Business?” …