ในมุมมองของนางริต้า ซัลแลม รองประธานฝ่ายวิจัยการ์ทเนอร์ อิงค์ (Gartner, Inc.) บริษัทวิจัยและให้คำปรึกษาชั้นนำ หนึ่งในวิธีรับมือกับเรื่องนี้อย่างมีประสิทธิภาพ คือ การผลักดันกลยุทธ์องค์กรที่ขับเคลื่อนด้วยดาต้า
ผู้บริหารฝ่ายข้อมูลขององค์กร จึงต้องอาศัยโซลูชันที่ตอบโจทย์การเข้าถึงข้อมูลและการประมวลผลที่รวดเร็วแม่นยำ และสามารถสเกลระบบวิเคราะห์ข้อมูลเพื่อรองรับรูปแบบการทำงานใหม่ ๆ ที่จะเกิดขึ้นในอนาคตได้
และเพื่อให้เห็นภาพการขับเคลื่อนองค์กรด้วยดาต้าชัดเจนขึ้น นี่คือ 10 อันดับเทรนด์ เทคโนโลยีการวิเคราะห์และจัดเก็บข้อมูล ในปี 2563 ตามรายงานจาก การ์ทเนอร์ อิงค์
#1
AI ที่ฉลาดขึ้น เร็วขึ้น หน้าที่เยอะขึ้น
ภายในสิ้นปี 2567 องค์กรราว 75% จะเปลี่ยนไปใช้ปัญญาประดิษฐ์ (AI) อย่างจริงจัง ส่งผลให้เกิดการสตรีมข้อมูลและการวิเคราะห์โครงสร้างพื้นฐานเพิ่มขึ้น 5 เท่า
จากการระบาดของไวรัสที่เกิดขึ้น เราได้เห็นความสำคัญของการนำเทคโนโลยี AI เช่น ระบบการเรียนรู้พฤติกรรมหรือแมชชีนเลิร์นนิ่ง (ML) มาเพิ่มประสิทธิภาพและการประมวลผลภาษาธรรมชาติ/มนุษย์ (NLP) ให้ข้อมูลเชิงลึกและช่วยคาดการณ์การแพร่กระจายของไวรัสได้อย่างมีประสิทธิภาพ รวมถึงวัดผลมาตรการการรับมือการแพร่ระบาดของไวรัส
เทคโนโลยีอัจฉริยะอื่น ๆ ที่ขับเคลื่อนด้วย AI อาทิ การเรียนรู้แบบเสริมกำลัง (Reinforcement Learning) หรือการกำหนดเงื่อนไขบางอย่างให้แมชชีนได้เรียนรู้และปิดช่องโหว่ที่พบ เพื่อบรรลุเงื่อนไขที่กำหนดไว้ และ การเรียนรู้แบบกระจาย (Distributed Learning) หรือแนวคิดในการเชื่อมโยงองค์ประกอบต่าง ๆ ที่เกี่ยวข้องในกระบวนการเรียนรู้ผ่านการใช้เครือข่ายคอมพิวเตอร์
สิ่งเหล่านี้ทำให้เกิดการสร้างระบบที่มีสเกลได้และยืดหยุ่นเพื่อจัดการกับสถานการณ์ทางธุรกิจที่ซับซ้อนได้ดียิ่งขึ้น เช่น ระบบ agent-based ที่ใช้โมเดลเป็นตัวแทนในแบบจำลองและวิเคราะห์ระบบที่มีความซับซ้อน
(ทำความรู้จัก การเรียนรู้แบบเสริมกำลัง เพิ่มเติมได้จากคอนเทนต์นี้ “AI Economist ใช้ปัญญาประดิษฐ์กำหนดนโยบายภาษี พิชิตความเหลื่อมล้ำ”)
#2
แดชบอร์ดยังจำเป็นอยู่รึเปล่า?
ในอนาคตอันใกล้ การรายงานผลแบบไดนามิก ที่เน้นมอบประสบการณ์แก่ผู้ใช้งานจริงแบบอัตโนมัติ จะเข้ามาแทนที่คอนเทนท์บนแดชบอร์ดที่สรุปผลแบบรูปภาพ point-and-click
นอกจากนี้ ผลสำรวจการใช้งาน ด้วยเทคโนโลยี augmented analytics หรือ NLP จะเข้าวิเคราะห์ข้อมูลเชิงลึกอ้างอิงจากบทบาทหน้าที่และประสบการณ์ใช้งานจริง และจะสตรีมคอนเทนท์ที่ตอบโจทย์การใช้งานไปยังผู้ใช้แต่ละรายได้อัตโนมัติ ส่งผลให้ให้ผู้ใช้ใช้เวลาบนแดชบอร์ดที่กำหนดค่าไว้ล่วงหน้าน้อยลง
#3
ระบบบริหารจัดการข้อมูลแบบอัจฉริยะ
ในปี 2566 องค์กรขนาดใหญ่มากกว่า 33% จะมีทีมนักวิเคราะห์ข้อมูลปฏิบัติงานในด้าน Decision Intelligence รวมถึง Decision Modeling โดยการทำงานในด้าน Decision Intelligence จะนำไปสู่การกำหนดเกณฑ์การวิเคราะห์มากมาย
ประกอบด้วย การจัดการการตัดสินใจ (Decision Management) และการสนับสนุนการตัดสินใจ (Decision Support) ซึ่งช่วยกำหนดกรอบการปฏิบัติงานด้านการออกแบบ จัดวาง ดำเนินการ ตรวจสอบและปรับแต่งรูปแบบการตัดสินใจให้แก่ผู้บริหารฝ่ายข้อมูล รวมถึงกระบวนการอื่น ๆ ที่สร้างผลลัพธ์ในเชิงธุรกิจและเรียนรู้พฤติกรรมผู้บริโภค
#4
X Analytics
ทฤษฎี “X analytics” ของการ์ทเนอร์เป็นคำศัพท์ที่ใช้กันอย่างแพร่หลาย โดย X ถูกกำหนดให้เป็นตัวแปรข้อมูลด้านการวิเคราะห์ของช่วงเนื้อหาที่แตกต่างกัน ครอบคลุมทั้งข้อมูลดิบและข้อมูลที่ผ่านการประมวลผลพร้อมใช้งาน เช่น การวิเคราะห์ข้อความ วิดีโอ เสียง และข้อมูลอื่น ๆ
ในช่วงการระบาดของโควิด-19 เทคโนโลยี AI มีบทบาทสำคัญในการประมวลผลและจัดการข้อมูลต่าง ๆ หลายพันเรื่อง ทั้งงานวิจัย แหล่งข้อมูลข่าวสาร ข้อความที่ถูกโพสต์บนโซเชียลมีเดีย รวมถึงข้อมูลการทดลองทางคลินิกเพื่อช่วยผู้เชี่ยวชาญทางการแพทย์และสาธารณสุขคาดการณ์การแพร่กระจายของโรค
และยังสามารถช่วยวางแผน ค้นหาแนวทางการรักษาใหม่ ๆ พร้อมระบุประชากรที่มีความเสี่ยง นอกจากนี้ทฤษฎี “X analytics” ของการ์ทเนอร์ยังถูกนำไปใช้ร่วมกับ AI และเทคนิคอื่น ๆ เพื่อเพิ่มศักยภาพในการวิเคราะห์ เช่น นำ AI ใช้ร่วมกับเทคนิคการวิเคราะห์ด้วยกราฟช่วยเพิ่มความแม่นยำในการระบุ คาดการณ์ และวางแผนรับมือภัยธรรมชาติและวิกฤตอื่น ๆ ในอนาคตได้ดียิ่งขึ้น
(ดูตัวอย่างอื่นๆของการนำ AI มาใช้เพื่อวิเคราะห์สถานการณ์หรือวิกฤตอื่นๆได้ ใน “10 เทคโนโลยีพลิกโลก 2020 คัดเลือกโดย MIT Technology Review”)
#5
กระบวนการปรับแต่งข้อมูลอัตโนมัติ
Augmented Data Management หรือกระบวนการปรับแต่งข้อมูลอัตโนมัติโดยใช้แมชชีนเลิร์นนิ่งและ AI ช่วยเพิ่มประสิทธิภาพและพัฒนาศักยภาพไปสู่การวิเคราะห์ ข้อมูลอภิพันธุ์ (Metadata) ที่ใช้ในการตรวจสอบบัญชี ความสัมพันธ์ของข้อมูล และการรายงานในรูปแบบไดนามิกซิสเต็มส์
ผลิตภัณฑ์ของ Augmented Data Management สามารถตรวจสอบตัวอย่างข้อมูลการปฏิบัติงานจำนวนมาก ประกอบด้วย การค้นหาจริง (Actual Queries), ข้อมูลเชิงปฏิบัติงาน (Performance Data) และโครงสร้างข้อมูล (Schemas) โดยใช้ข้อมูลจากการใช้งานจริงและข้อมูลเวิร์คโหลด Augmented Engine สามารถช่วยปรับแต่งประสิทธิภาพและกำหนดค่าความปลอดภัยได้
#6
Cloud เป็นของที่ต้องมี
ภายในปี 2565 คลาวด์สาธารณะหรือ Public Cloud จะมีบทบาทสำคัญต่อการคิดค้นนวัตกรรมด้านการวิเคราะห์และข้อมูลถึง 90%
แต่เนื่องจากข้อมูลและการวิเคราะห์ถูกย้ายขึ้นไปอยู่บนคลาวด์ ความท้าทายสำคัญสำหรับผู้บริหารฝ่ายข้อมูล จึงอยู่ที่การมองหาบริการที่เหมาะสมและสอดรับกับรูปแบบการใช้งานต่าง ๆ เพื่อลดค่าใช้จ่ายที่จะเกิดจากการใช้โซลูชันที่ไม่รองรับการสเกลระบบที่อาจเกิดขึ้นในอนาคต
คำถามหลักที่เกิดขึ้น เมื่อต้องการซื้อบริการด้านดาต้าและการวิเคราะห์ข้อมูล จึงเปลี่ยนจาก ค่าบริการ มาเป็นเรื่องที่บริการนี้ทำอะไรได้บ้าง? ตอบโจทย์ความต้องการด้านการทำงานหรือไม่อย่างไร?
ผู้บริหารที่ดูแลด้านดาต้าและการวิเคราะห์ ก็จำเป็นต้องจัดลำดับความสำคัญของเวิร์คโหลดที่อาจทำให้ประสิทธิภาพการทำงานของคลาวด์ถูกลดทอนได้ และให้ความสำคัญไปที่การบริหารความคุ้มค่าเมื่อต้องเปลี่ยนรูปแบบการดำเนินธุรกิจไปสู่คลาวด์
(คลาวด์คอมพิวติ้ง คือหนึ่งในเทรนด์ทางเทคโนโลยี ที่จะกลายเป็น new normal สำหรับทุกธุรกิจในเร็ววันนี้ เรียนรู้เพิ่มเติมเกี่ยวกับเรื่องนี้ได้ใน “17 คุณลักษณะของงานแห่งอนาคต สำหรับองค์กรยุคใหม่”)
#7
การปะทะกันของโลกแห่งข้อมูลและการวิเคราะห์
ปกติการเลือกใช้เทคโนโลยีดาต้าและอนาไลติกส์ จะแตกต่างกันไปในแต่ละองค์กร โดยใช้อัตลักษณ์และรูปแบบการบริหารจัดการของแต่ละองค์กร มาพิจารณาเลือกเทคโนโลยีให้เหมาะสม
ผู้จำหน่ายโซลูชันจะเสนอขาย เวิร์กโฟลว์แบบครบวงจรโดยเปิดใช้งานการวิเคราะห์ข้อมูลแบบอัตโนมัติด้วยเทคโนโลยี augmented analytics ซึ่งยากต่อการแยกแยะความแตกต่างของสองตลาด
การชนกันของข้อมูล และระบบวิเคราะห์ จะเพิ่มการโต้ตอบและการทำงานร่วมกันระหว่างข้อมูลเก่าที่ถูกส่งออกและระบบการวิเคราะห์ข้อมูล เป็นผลกระทบที่เกิดขึ้น ไม่เพียงต่อเทคโนโลยีและความสามารถที่มีอยู่ในโซลูชัน แต่เกิดขึ้นกับคนและกระบวนการสนับสนุนและใช้งาน ตัวอย่างการทำงานคล้ายกับเกิดเป็นรูปแบบการทำงานของสเปกตรัมโดยเริ่มขยายจากข้อมูลดิบเดิม สู่การวิเคราะห์ข้อมูล และส่งต่อไปยังนักวิเคราะห์ข้อมูล และนักพัฒนาทั่ว ๆ ไป
#8
ตลาดและการแลกเปลี่ยนข้อมูล
ในปี 2565 องค์กรขนาดใหญ่ราว 35% จะกลายเป็นทั้งผู้ซื้อและผู้ขายข้อมูลผ่านออนไลน์มาร์เก็ตเพลส โดยโตจาก 25% ในปี 2563 ซึ่งแพลตฟอร์มการแลกเปลี่ยนข้อมูลและดาต้ามาร์เก็ตเพลสจะกลายเป็นแหล่งรวมข้อมูลออนไลน์เดียวที่จัดเก็บข้อมูลจากแหล่งต่าง ๆ ไว้สำหรับนำไปใช้และลดต้นทุนให้กับองค์กร
#9
บล็อกเชนในดาต้า และการวิเคราะห์ข้อมูล
เทคโนโลยีบล็อกเชน ระบุถึงความท้าทายสำคัญสองสิ่ง เกี่ยวกับดาต้าและการวิเคราะห์ อย่างแรก คือ บล็อกเชน รวบรวมข้อมูลสินทรัพย์และธุรกรรมทั้งหมด และอย่างที่สอง คือ บล็อกเชนมีความโปร่งใสแม้เครือข่ายมีความซับซ้อนและผู้ใช้หลากหลาย
นอกจาก บิทคอยน์ และ Smart Contract ยังมีระบบจัดการฐานข้อมูลบัญชีแยกประเภท (หรือ DBMSs) ที่นำเสนอตัวเลือกน่าสนใจในการตรวจสอบข้อมูลจากแหล่งที่มาได้หลากหลาย ผ่าน single-enterprise auditing
การ์ทเนอร์คาดการณ์ว่า ในปี 2564 บล็อกเชนได้รับใบอนุญาตประกอบธุรกิจสินทรัพย์ดิจิทัลส่วนใหญ่จะถูกแทนที่ด้วยผลิตภัณฑ์ DBMS
(อ่านเพิ่มเติม จีน คือหนึ่งในชาติที่มองเห็นความสำคัญของเทคโนโลยีบล็อกเชน จนประกาศขึ้นทะเบียนวิศวกรด้านบล็อกเชนเป็นอีกหนึ่งอาชีพอย่างเป็นทางการแล้ว เมื่อเร็วๆนี้)
#10
ความสัมพันธ์สร้างรากฐานแก่ข้อมูลและเพิ่มคุณค่าในการวิเคราะห์
ในปี 2566 องค์กรต่าง ๆ ทั่วโลกราว 30% จะใช้เทคโนโลยีกราฟในการวิเคราะห์ข้อมูลซึ่งช่วยในการตัดสินใจทางธุรกิจได้อย่างรวดเร็ว
การวิเคราะห์ข้อมูลด้วยกราฟ เป็นเทคนิคหนึ่งในการวิเคราะห์ข้อมูลที่ข้อมูลนั้นถูกจัดให้อยู่ในรูปแบบเชิงความสัมพันธ์ โดยใช้วิเคราะห์ความสัมพันธ์ของรายละเอียดต่าง ๆ เช่น องค์กร คน และธุรกรรมต่าง ๆ มันช่วยให้ผู้บริหารฝ่ายข้อมูลค้นพบความสัมพันธ์ของข้อมูลใหม่ ๆ และตรวจสอบข้อมูลที่ไม่สามารถวิเคราะห์ได้ด้วยวิธีการแบบเดิม