[PR]เน็ตแอพเผยเทรนด์เทคโนโลยีปี 2561 ดาต้าหรือข้อมูล คือตัวขับเคลื่อนธุรกิจที่สำคัญ

เมื่อเร็วๆ นี้ เน็ตแอพได้ออกมาพูดถึงการเปลี่ยนแปลงทางด้านรากฐานของโลกที่เกิดขึ้นอย่างรวดเร็ว ในเรื่องของการเปลี่ยนผ่านสู่ยุคดิจิทัล ที่มีการมุ่งเน้นไปที่กลยุทธ์เชิงไอทีสำหรับองค์กรทั้งหลาย โดยที่ศูนย์กลางของการโฟกัสจะไปอยู่ที่ ‘ข้อมูล’ ในยุคที่โลกเรามีความหลากหลายทางด้านข้อมูล และข้อมูลก็มีอิทธิพลต่อทุกๆ สิ่ง ตั้งแต่โครงสร้างพื้นฐานทางไอที โครงสร้างของแอปพลิเคชัน ไปจนถึงกลยุทธ์ Provisioning ที่จะต้องปรับเปลี่ยนเพื่อตอบสนองความจริงครั้งใหม่ของโลกไฮบริดคลาวด์ นี่คือบริบทที่ทำให้เราเข้าใจ 5 เทรนด์สำคัญในปี 2561 ด้วยการคาดการณ์ของซีทีโอจากเน็ตแอพ

นาย วีระ อารีรัตนศักดิ์ กรรมการผู้จัดการ บริษัท เน็ตแอพ ประจำมาเลเซีย อินโดนีเซีย ไทย กัมพูชา ลาว และเมียนมาร์

1. ความสามารถในการหยั่งรู้ของข้อมูล

ปัจจุบัน เรามีกระบวนการที่ทำหน้าที่ควบคุมการย้ายข้อมูล การจัดการและการป้องกันข้อมูลต่างๆ ที่อาจเกิดขึ้น แต่ก็มีสิ่งที่เกินคาดกว่านั้น คือ เรามีระบบที่ข้อมูลสามารถจัดการตัวมันเองได้ ล่าสุดของความก้าวหน้าในระบบสารสนเทศนั้น ข้อมูลมีความสามารถในการบริหารจัดการตัวเองได้หลากหลายขึ้นมากกว่าเดิม โดย เมทาดาทา (Metadata) จะทำให้ข้อมูลสามารถเคลื่อนย้าย จัดหมวดหมู่ วิเคราะห์และปกป้องตัวเองได้  และความราบรื่นในการทำงานขององค์ประกอบข้อมูล แอปพลิเคชัน และสตอเรจ จะถูกอัพเดตในแบบเรียลไทม์ ในขณะที่ข้อมูลทำการส่งสารที่ถูกต้องและแม่นยำตามที่ผู้ใช้งานต้องการได้อย่างถูกที่ ถูกเวลา นี่คืออีกหนึ่งความสามารถในการจัดการตนเองของข้อมูล ด้วยการกำหนดผู้ที่สามารถเข้าถึง แบ่งปัน และใช้งานข้อมูลได้เอง ซึ่งอาจหมายถึงการปกป้องข้อมูลจากภายนอก เพื่อความเป็นส่วนตัว ด้วยอำนาจการจัดการในการเข้าถึง

ยกตัวอย่างเช่น หากคุณประสบอุบัติเหตุทางรถยนต์ อาจมีกลุ่มคนบางกลุ่มต้องการหรือแสดงเจตจำนงในการเข้าถึงข้อมูลรถยนต์ของคุณ ไม่ว่าจะเป็นผู้ตัดสิน หรือบริษัทประกันภัยที่ต้องการข้อมูลเพื่อทำการวิเคราะห์ ในขณะเดียวกันโรงงานผลิตรถยนต์ก็อาจต้องการข้อมูลนี้ด้วยเพื่อนำไปสร้างสมรรถนะกลไกเครื่องยนต์หรือระบบเบรกที่ดีที่สุด ทว่าการจัดการของระบบข้อมูลนี้ก็คือ ความสามารถในการหยั่งรู้ได้ว่ามีใครกำลังติดตาม และยังคอยควบคุมว่าใครกำลังเฝ้าดู อยู่ในส่วนไหนและเวลาใด โดยที่เจ้าของข้อมูลไม่ต้องกังวลว่าจะมีผลเสียตามมาเนื่องจากมีใครล่วงรู้ข้อมูลสำคัญที่ไม่ต้องการเผยแพร่

2. Virtual Machine จะกลายเป็นเครื่อง Rideshare

สิ่งนี้ทำให้เราได้ข้อคิดในการเลือกซื้อ เช่ารถยนต์ หรือการใช้บริการ Ridesahre ผ่านทางบริการอย่าง Uber หรือ Lyft หากคุณเป็นคนหนึ่งที่ใช้ยานพาหนะในการบรรทุกของหนักทุกวัน การซื้อรถเป็นของตัวเองก็เป็นเรื่องที่เหมาะสม แต่หากในกรณีของคนที่เลือกใช้รถต่างประเภทในแต่ละช่วงเวลา ก็อาจเหมาะกับการเช่ารถยนต์มากกว่า นอกจากนี้ ยังมีกลุ่มคนที่ต้องการใช้ยานพาหนะในการรับส่งจากที่หนึ่งไปยังที่หนึ่งแค่เพียงครั้งเดียวเท่านั้น ซึ่งประเภทของรถนั้นคงไม่จำเป็น ขอแค่เพียงมีความรวดเร็วและสะดวกสบาย ซึ่งบริการอย่าง Rideshare ก็ดูจะตอบโจทย์มากที่สุด

แนวคิดนี้จึงถูกนำมาประยุกต์ใช้ในกรณีของ Virtual Machine และ Physical machine ฮาร์ดแวร์ที่สามารถปรับแต่งได้อาจมีราคาสูง แต่การลงทุนทางด้านโครงสร้างพื้นฐานที่เป็นรูปธรรมนั้นยังคงเหมาะกับเวิร์กโหลดปริมาณมหาศาลที่ต้องทำงานร่วมกัน กรณีของ Virtual Machine ในระบบคลาวด์ที่รองรับประเภทของเวิร์กโหลดที่หลากหลายดูจะคล้ายกับการทำสัญญาเช่า ผู้ใช้งานสามารถเข้าถึง Virtual Machine ได้โดยที่ไม่ต้องถือสิทธิ์ครอบครองหรือทราบข้อมูลใดๆ ทั้งสิ้น และเมื่อสิ้นสุดการ ‘เช่า’ ทุกอย่างก็จะถูกยกเลิกไปเอง Virtual Machine ที่อยู่บนโครงสร้างพื้นฐาน webscale (การประมวลผลแบบไม่ต้องใช้เซิร์ฟเวอร์) จะคล้ายกับบริการ Rideshare ที่สามารถประมวลผลได้เพียงแค่ผู้ใช้งานกำหนดภารกิจที่ต้องทำให้สำเร็จ จากนั้นก็ยกให้เป็นหน้าที่ของผู้ให้บริการคลาวด์จัดการ สร้างความสะดวกสบายในการใช้งานมากกว่ารูปแบบดั้งเดิมของเวิร์กโหลดบางประเภท

3. ข้อมูลที่เพิ่มขึ้นอย่างรวดเร็วจนเกินความสามารถในการถ่ายโอน แต่ก็สามารถจัดการได้

คงไม่ใช่ความลับหากจะบอกว่า การที่ข้อมูลมีการเปลี่ยนแปลงอยู่เสมอและถูกนำมาใช้งานในอัตราที่เพิ่มสูงขึ้นจนเกินความสามารถในการถ่ายโอน อย่างไรก็ตามแอปพลิเคชันและทรัพยากรที่ต้องใช้ในกระบวนการจะถูกย้ายใกล้กับข้อมูล แทนที่จะเป็นการย้ายข้อมูลไปเองซึ่งส่งผลให้เกิดโครงสร้างใหม่ๆ อย่าง edge, core และ cloud ในอนาคต

ตัวอย่างเช่น โรงงานผลิตรถยนต์ไร้คนขับ (Autonomous car) ติดตั้งเซนเซอร์ที่ผลิตข้อมูลมหาศาลจนไม่มีเครือข่ายที่รวดเร็วพอที่จะเคลื่อนย้ายข้อมูลจากรถยนต์ไปยังดาต้าเซนเตอร์ได้ ในอดีตอุปกรณ์ที่อยู่บน edge ไม่ได้ผลิตข้อมูลจำนวนมากนัก แต่ปัจจุบันการที่มีเซนเซอร์ติดตั้งอยู่ทุกที่ตั้งแต่ รถยนต์, ตัวควบคุมอุณหภูมิ ไปจนถึงอุปกรณ์แวร์เอเบิล ข้อมูล edge นั้นมีการเติบโตอย่างรวดเร็วจนเกินขีดความสามารถของการเชื่อมต่อเครือข่ายเข้ากับแกนประมวลผล (core) รถยนต์ไร้คนขับและอุปกรณ์ edge อื่นๆ ต้องการการวิเคราะห์แบบเรียลไทม์บน edge เพื่อการตัดสินใจที่ทันท่วงที ส่งผลให้เราย้ายแอปพลิเคชันไปใกล้กับข้อมูล

4. การพัฒนาจาก Big Data ไปสู่ Huge Data ต้องพึ่งพาสถาปัตยกรรมโครงสร้าง Solid State Drive (SSD) ในรูปแบบใหม่

ความต้องการในการวิเคราะห์กลุ่มข้อมูลขนาดใหญ่กำลังเพิ่มขึ้นอย่างรวดเร็ว เราจำเป็นต้องย้ายข้อมูลให้ไปอยู่ใกล้กับทรัพยากรประมวลผล หน่วยความจำข้อมูลแบบถาวร (persistent memory) คือสิ่งที่เอื้อให้มีการประมวลผลแบบ ultra-low latency โดยที่ข้อมูลไม่สูญหายและความต้องการของค่า latency เหล่านี้จะบังคับให้สถาปัตยกรรมทางด้านซอฟต์แวร์เกิดการปรับเปลี่ยนและสร้างโอกาสให้ธุรกิจทั้งหลายได้มาซึ่งข้อมูลใหม่ๆ แม้เทคโนโลยีแฟลช (Flash) จะกลายเป็นประเด็นร้อนในภาคอุตสาหกรรม แต่ซอฟต์แวร์ที่รันบนเทคโนโลยีนี้ก็ยังไม่ได้มีการเปลี่ยนแปลงอย่างแท้จริงแค่มีความรวดเร็วขึ้นเท่านั้น

นี่คืออิทธิพลจากวิวัฒนาการของบทบาททางด้านไอทีในองค์กร ในอดีตหน้าที่หลักของไอทีน่าจะเป็นการจัดการขั้นตอนกระบวนการให้เหมาะสมที่สุด ไม่ว่าจะเป็นการสั่งงาน การวางบิล การทำการบันทึกบัญชีเกี่ยวกับลูกหนี้ (Account Receivable) และอื่นๆ ในปัจจุบัน ไอทีเป็นส่วนประกอบสำคัญในการเสริมสร้างความสัมพันธ์กับลูกค้าให้ดีขึ้น ด้วยการนำเสนอบริการที่ออนไลน์อยู่ตลอด (Always on), แอปพลิเคชันบนมือถือ และการเข้าสู่ rich web experience ขั้นตอนต่อไปคือการแปลงของข้อมูลที่ถูกบันทึกทางเซนเซอร์หลายแห่งและอุปกรณ์ต่างๆ เพื่อสร้างโอกาสทางด้านธุรกิจใหม่ๆ ซึ่งขั้นตอนนี้ต้องอาศัยสถาปัตยกรรมแอปพลิเคชันรูปแบบใหม่ที่สนับสนุนโดยเทคโนโลยีอย่างหน่วยความจำข้อมูลแบบถาวร (persistent memory)

5. การปรากฏขึ้นของกลไกการจัดการข้อมูลแบบกระจายอำนาจจากศูนย์กลางที่ไม่สามารถเปลี่ยนแปลงได้

กลไกการจัดการข้อมูลด้วยวิธีที่มีความน่าเชื่อถือ ไม่เปลี่ยนแปลง และมีการเผยแพร่อย่างแท้จริง (หมายถึง ไม่ต้องผ่านอำนาจศูนย์กลาง) จะมีความโดดเด่นและสร้างผลกระทบให้แก่ศูนย์ข้อมูลแบบลงลึก ซึ่ง Blockchain คือตัวอย่างที่เห็นได้ชัดสำหรับกรณีนี้

กลไกการกระจายอำนาจจากศูนย์กลางอย่าง blockchain สร้างความท้าทายให้แก่รูปแบบการปกป้องและจัดการข้อมูลแบบดั้งเดิม เนื่องจากไม่มีจุดศูนย์กลางในการควบคุมอย่างเซิร์ฟเวอร์กลาง เป็นไปไม่ได้เลยที่จะเปลี่ยนหรือลบข้อมูลที่ถูกจัดเก็บอยู่ใน blockchain และข้อมูลการทำธุรกรรมต่างๆ อย่างไม่สามารถกู้คืนกลับมาได้


About nattakon

จบการศึกษา ปริญญาตรีและโท สาขาวิศวกรรมคอมพิวเตอร์ KMITL เคยทำงานด้าน Engineer/Presale ดูแลผลิตภัณฑ์ด้าน Network Security และ Public Cloud ในประเทศ ปัจจุบันเป็นนักเขียน Full-time ที่ TechTalkThai

Check Also

ฮิตาชิ แวนทารา พลิกวงการระบบจัดเก็บข้อมูลองค์กรด้วย Hitachi Virtual Storage Platform 5000 Series และซอฟต์แวร์บริหารจัดการ Hitachi Ops Center ขุมพลังแห่งระบบ AI

ฮิตาชิ แวนทารา (Hitachi Vantara) ในเครือบริษัท ฮิตาชิ จำกัด (TSE: 6501) ประกาศเปิดตัวโซลูชันเก็บข้อมูลยุคใหม่พร้อมโครงสร้างพื้นฐานอันทรงพลัง ด้วยสถาปัตยกรรมใหม่ที่สามารถปรับขยายและยกระดับให้รองรับปริมาณงานทุกสเกล โซลูชันดังกล่าวประกอบด้วยแพลตฟอร์ม Hitachi Virtual Storage Platform (VSP) 5000 Series ซึ่งเป็นระบบจัดเก็บข้อมูลระดับองค์กรใหม่ล่าสุดและเร็วที่สุดในโลก [1] พร้อมด้วยซอฟต์แวร์บริหารจัดการใหม่ล่าสุด Hitachi Ops Center และระบบปฏิบัติการอัปเดตใหม่ Hitachi Storage Virtualization Operating System เมื่อผนวกรวมกันแล้ว เทคโนโลยีเหล่านี้จะเข้ามาเร่งการทำงานในศูนย์ข้อมูลและส่งมอบระบบ IT ที่รองรับอนาคต ด้วยสถาปัตยกรรมใหม่สุดล้ำที่เป็นรากฐานในการยกระดับสภาพแวดล้อมด้านศูนย์ข้อมูล ระบบคลาวด์ และ DataOps ให้ทันสมัยยิ่งขึ้น

3 ประเด็นสำคัญด้าน Cloud Security ที่ทุกธุรกิจองค์กรต้องใส่ใจ โดย Radware

ในปี 2019 ที่ผ่านมานี้ เราได้เห็นเหตุการณ์ด้าน Cybersecurity ที่เกี่ยวข้องกับระบบ Cloud มากมาย ทาง Radware เองก็ได้ออกมาสรุปถึง 3 ประเด็นหลักที่เหล่าธุรกิจองค์กรควรให้ความสำคัญเพื่อปกป้องระบบ Cloud ที่ตนเองใช้งานอยู่ดังนี้