Yahoo เปิดให้บริการ Deep Learning Network ที่ทางบริษัทใช้สำหรับตรวจสอบข้อมูลที่เป็นรูปภาพลามกอนาจารบนเว็บไซต์แบบ Open-source ชื่อว่า NSFW (Not Suitable for Work) พร้อมให้ผู้สนใจดาวน์โหลดไปใช้งานได้ผ่านทาง GitHub
ระบบ Artificial Intelligence (AI) นี้เรียนรู้วิธีการระบุรูปภาพลามกอนาจารบนเว็บไซต์โดยอัตโนมัติ โดยจะให้คะแนนเป็นความน่าจะเป็นระหว่าง 0 ถึง 1 ถ้าคะแนนต่ำกว่า 0.2 หมายความว่ารูปภาพนั้นๆ เหมาะสมสำหรับผู้รับชมทุกวัย แต่ถ้าคะแนนเกินกว่า 0.8 นั่นหมายความว่าคุณเตรียมตัวถูกหัวหน้าเรียกไปคุยได้เลย ถ้าเขาเดินผ่านมาเห็นสิ่งที่อยู่บนหน้าจอคุณ
ยกตัวอย่างรูปภาพของผู้หญิงที่สวดชุดตั้งแต่หัวจรดเท้า และยืนรอยู่ในทุ่งดอกไม้มีคะแนน 0.001 ซึ่งเรียกได้ว่าเป็นรูปที่ไม่มีประเด็นใดๆ ทั้งสิ้น รูปผู้ชายถอดเสื้อเดินบนชายหาดอาจมีคะแนนสูงขึ้นมาเป็น 0.074 ในขณะที่รูปไลฟ์การ์ดหญิงใส่ชุดบิกินี่วิ่งบนทรายมีคะแนน 0.116
“การนิยามแมทรีเรียลที่ไม่เหมาะสมสำหรับการทำงาน (NSFW) ขึ้นอยู่กับวิจารณญาณส่วนบุคคล และหน้าที่การระบุรูปภาพเหล่านั้นไม่ใช่เรื่องง่าย นอกจากนี้ ประเด็นที่คนส่วนใหญ่มักถกเถียงกันคือ รูปหนึ่งอาจจะดูเหมาะสมสำหรับอีกคนหนึ่งก็ได้” –Gerry Pesavento ผู้อำนวยการอาวุโสด้านการจัดการผลิตภัณฑ์ของ Yahoo และ Jay Mahadeokar วิศวกรงานวิจัยจาก Yahoo ให้ความเห็น
NSFW Model พัฒนาโดยใช้ Caffe Open-source Deep Learning Framwork และเรียนรู้บริบทโดยใช้ระบบ CaffeOnSpark ส่งผลให้นักพัฒนาสามารถนำซอร์สโค้ดไปปรับแต่งเพื่อให้สอดคล้องกับความต้องการของบริษัทของตนได้
อย่างไรก็ตาม Yahoo ไม่ได้ออกมาพูดถึงรูปภาพที่เป็นภาพสเก็ต การ์ตูน ข้อความ และภาพความรุนแรงอื่นๆ แต่อย่างใด
ผู้ที่สนใจสามารถดูรายละเอียดและดาวน์โหลดโค้ดมาลองใช้ได้ผ่านทาง GitHub
ที่มา: http://www.pcmag.com/news/348403/yahoo-open-sources-porn-hunting-neural-network