หลังจากความต้องการใน Generative AI เติบโตขึ้นอย่างต่อเนื่อง ความกังวลเรื่องความปลอดภัย (Safety) และความไว้ใจได้ (Reliability) ได้กลายเป็นเรื่องที่สำคัญมากขึ้นเรื่อย ๆ กว่าที่ผ่านมา จึงทำให้ Microsoft ประกาศเครื่องมือ Azure AI ใหม่ ที่ตอบโจทย์สิ่งต่าง ๆ เหล่านั้น
เพราะองค์กรต้องการความมั่นใจในแอปพลิเคชัน LLM ที่พัฒนาขึ้นมาใช้งานทั้งภายในและภายนอก เครื่องมือ Azure AI ใหม่นี้จะทำให้นักพัฒนาระบบสามารถจัดการกับปัญหาเกี่ยวกับอาการหลอน (Hallucination) ที่มักพบเจอใน Generative AI ได้ดีขึ้น
นอกจากนี้ Azure AI ใหม่ ยังช่วยเรื่องช่องโหว่ความมั่นคงปลอดภัย (Security) ต่าง ๆ เช่น “Prompt Injection” หรือการหลอกโมเดลให้สร้างเนื้อหาที่เป็นอันตรายออกมา ดังที่เป็นข่าวก่อนหน้านี้มากมาย เช่น ภาพ Deepfake ที่สร้างโดยเครื่องมือ AI สร้างภาพของทาง Microsoft เป็นต้น
สำหรับปัญหาเรื่อง Prompt Injection ทาง Microsoft ได้เพิ่ม “Prompt Shields” เข้าไปในเเครื่องมือ Azure AI ที่จะช่วยวิเคราะห์ Prompt ข้อมูล 3rd party ที่ส่งเข้ามาว่าเป็นสิ่งที่ไม่ประสงค์ดีหรือไม่ เพื่อบล็อคสิ่งเหล่านั้นก่อนที่จะเข้าไปถึงโมเดลได้ ซึ่งสิ่งนี้จะเข้าไปผนวกอยู่ในบริการของ Azure OpenAI Service, Auzre AI Content Safety และ Azure AI Studio
นอกจากนี้ ยังมี “Groundedness Detection” เพื่อตรวจจับอาการ Hallucination ของโมเดล LLM ได้เลย หรือ “Safety system messages” เพื่อที่จะคัดกรองพฤติกรรมของโมเดลเพื่อความปลอดภัย และส่งผลลัพธ์ออกไปให้อย่างมีความรับผิดชอบซึ่งจะปล่อยออกมาในอนาคตต่อไป
สำหรับรายละเอียดอื่น ๆ สามารถอ่านได้ที่นี่