Big Data Analytics เทรนด์การวิเคราะห์ Big Data

Big Data Analytics เทรนด์การวิเคราะห์ Big Data

Big Data Analytics (กระบวนการวิเคราะห์ข้อมูลขนาดใหญ่ เพื่อค้นหาความสัมพันธ์ของข้อมูล หาสิ่งที่เชื่อมโยงข้อมูลเหล่านั้นเข้าไว้ด้วยกัน หาเทรนด์ทางการตลาด ความต้องการของลูกค้า และข้อมูลอื่นๆ ที่เป็นประโยชน์ต่อธุรกิจ) กำลังสร้างการเปลี่ยนแปลงครั้งยิ่งใหญ่อย่างรวดเร็วต่อองค์กรน้อยใหญ่ทั่วโลกในแทบจะทุกอุตสาหกรรมเลยก็ว่าได้ มันเป็นเทคโนโลยีที่ทั่วโลกกำลังให้ความสนใจ และธุรกิจต่างๆ พยายามพัฒนาเพื่อเพิ่มศักยภาพในการวิเคราะห์ข้อมูลที่มีในมือให้มีประสิทธิภาพมากยิ่งขึ้น ตัวอย่างที่เราเห็นกันอย่างชัดเจนอย่าง Facebook, Amazon, Google, Microsoft, Apple, Samsung, Airbnb, Grab, Lazada และอื่นๆ อีกมากมาย พวกเขารู้ดีว่าการวิเคราะห์ข้อมูลนั้นสำคัญแค่ไหนต่อการสร้างความแข็งแกร่งให้กับธุรกิจ และทำให้ยอดขายเติบโตในปัจจุบัน
  ปกติแล้วการวิเคราะห์ข้อมูลที่เราคุ้นเคยนั้นใช้มนุษย์ที่เชี่ยวชาญด้านนี้โดยเฉพาะมาโดยตลอด เหล่า Business Analysts จะวิเคราะห์ข้อมูลที่พบเจอว่าส่วนไหนที่น่าสนใจ แล้วนำไปเสนอฝ่ายต่างๆ ของบริษัท แต่ว่ากระบวนการทั้งหมดนั้นดูจะช้าเกินไปแล้วสำหรับธุรกิจในปัจจุบัน โดยเฉพาะธุรกิจที่ใช้ข้อมูลแบบ Real - Time Streaming ที่ต้องตอบสนองความต้องการของลูกค้าในแบบวินาที ต่อวินาที โดยบริษัทวิจัยตลาดอย่าง IDC คาดการณ์ว่าภายในปี 2025 เกือบ 30 เปอร์เซ็นต์ของข้อมูลที่ถูกสร้างขึ้นมานั้นจะเป็นข้อมูลแบบ Real - Time เมื่อเทียบกับปี 2017 ที่มีเพียง 15 เปอร์เซ็นต์เท่านั้น
    ระบบการวิเคราะห์ข้อมูลแบบอัตโนมัตินั้นจะถูกฝังเข้าไปในกระบวนการของการทำธุรกิจโดยตรง อย่างเช่นซื้อขายของ หรือระบบสนับสนุนลูกค้า มีการวิเคราะห์และจัดการขั้นตอนทุกอย่างโดยอัตโนมัติ ให้มนุษย์มีส่วนเกี่ยวข้องในการตัดสินใจน้อยลงเรื่อยๆ เพื่อลดเวลาในการตอบสนองลูกค้าให้เร็วขึ้นกว่าเดิม AI และ Machine Learning จะเป็นตัวช่วยทำให้เทรนด์นี้แข็งแรงมากยิ่งขึ้นด้วย
    Augmented Analytics หรือการทำการวิเคราะห์ข้อมูลโดยอัตโนมัติ ด้วยการใช้เทคโนโลยีอย่าง AI, Machine Learning และ NLP (Natural Language Processing - ทำให้คอมพิวเตอร์เข้าใจภาษามนุษย์) เข้ามาช่วยในการจัดเตรียมข้อมูล การวิเคราะห์ และอธิบายออกมาเพื่อนำไปพัฒนาต่อได้
    Natural Language Processing For Analytics (NLP) คือการทำให้คอมพิวเตอร์เข้าใจภาษามนุษย์ ซึ่งเทคโนโลยีนี้จะช่วยให้นักธุรกิจที่ไม่ใช่ฝั่งเทคนิคสามารถพิมพ์ หรือพูดคำถามโดยใช้ภาษาทั่วไปได้เลย และในทางกลับกันก็รับข้อมูลในรูปแบบที่ไม่ต้องใช้ตัวกลางอย่างนักวิเคราะห์ข้อมูลเพื่อแปลให้อีกรอบ โดยมีการคาดคะเนว่าภายในสิ้นปีหน้า 50 เปอร์เซ็นต์ของคำถามที่ถูกถามเหล่านี้จะถูกสร้างโดย NLP และภายในปี 2021 33 เปอร์เซ็นต์ของบริษัทจะใช้เทคโนโลยีนี้อย่างกว้างขวางเพื่อให้การค้นหาข้อมูลนั้นเป็นเรื่องง่ายสำหรับทุกคนที่อยู่ในองค์กรและลูกค้าที่ใช้บริการด้วย
    Analytics และ Edge Computing ภายในปี 2025 เราจะมีอุปกรณ์ IoT (Internet of Things) ประมาณ 1.5 แสนล้านเครื่องที่เชื่อมต่อกับอินเทอร์เน็ตทั่วโลก โดยส่วนใหญ่แล้วเป็นอุปกรณ์ปลายทาง (End Device) ที่อยู่ปลายสายของเครือข่าย โดยบริษัทวิจัยตลาด IDC บอกว่าอุปกรณ์แสนล้านเครื่องปีนั้นจะสร้างข้อมูลเป็นจำนวนกว่า 90 zettabytes เลยทีเดียว ซึ่งตรงนี้เองที่จะเป็นทั้งความท้าทายและโอกาสของการวิเคราะห์ข้อมูล ปริมาณที่เพิ่มขึ้นทำให้วิธีการทำงานแบบเดิมๆ นั้นใช้ไม่ได้อีกต่อไป แถมยังเป็นข้อมูลแบบ Real - Time อีกด้วยจึงเป็นที่มาของการวิเคราะห์ข้อมูลโดยใช้ Edge Computing
    Edge Computing แปลตรงๆ ก็คือการประมวลผลที่ขอบ (ของเครือข่าย) ซึ่งอาจจะอยู่ตรงไหนก็ได้ระหว่างอุปกรณ์นอกสุด (End Devices) และก่อนจะถึงระบบคลาวด์ที่เป็นส่วนกลางทั้งหมด การประมวลผลอาจเกิดขึ้นได้ระหว่างทาง เช่น อุปกรณ์ Network Routers หรือ Gateways ในเครือข่าย อาจจะมีความสามารถในการประมวลผล จัดเก็บข้อมูล หรือวิเคราะห์ข้อมูล หรือ Data Analytics เบื้องต้น ก่อนส่งต่อไปยังระบบคลาวด์ โดยการทำแบบนี้จะเป็นการลดการสื่อสารกับคลาวด์ เพิ่มความรวดเร็วในการประมวลผล และไม่โหลดการประมวลผลของคลาวด์มากจนเกินไป
    Data as a Service ธุรกิจและองค์กรต่างเริ่มมีการให้เข้าถึงข้อมูลของตัวเองในรูปแบบของบริการอย่างหนึ่ง (Data as a Service - DaaS) ไม่ว่าจะเป็นภายในองค์กรเองหรือข้างนอก เพื่อสร้างรายได้ให้กับบริษัท เมื่อก่อนเรามักรู้สึกว่าข้อมูลนั้นจะต้องถูกล็อกเก็บเอาไว้ในตู้เซฟ มีเพียงไม่กี่คนเท่านั้นที่จะเข้าถึงได้ แต่ DaaS ได้ใช้คลาวด์เทคโนโลยีเพื่อให้ผู้ใช้งาน/แอปพลิเคชั่นสามารถเข้าถึงข้อมูลเหล่านี้ได้แบบ On - Demand ไม่ว่าจะอยู่ที่ไหนบนโลกใบนี้ DaaS จะทำให้นักวิเคราะห์เข้าถึงข้อมูลได้ง่ายขึ้นสำหรับการทำงานและส่วนต่างขององค์กรนั้นสามารถแชร์ข้อมูลกันได้ง่ายมากขึ้นด้วย หลายบริษัทใช้วิธีการมัดรวม DaaS กับเครื่องมือต่างๆ เพื่อขายบริการแบบระบบสมาชิก 
    Analytics: มากกว่าการทำนาย (Prediction) แต่บอกได้เลยว่าต้องทำอะไร (Prescription) การวิเคราะห์ข้อมูลที่ผ่านมานั้นใช้เพื่อการค้นพบและเข้าใจสิ่งที่เกิดขึ้นในอดีต ยกตัวอย่างเช่น การดูยอดขายเสื้อกันหนาวที่เชียงใหม่เทียบกันระหว่างปี 2019 และ 2018 โดยใช้ข้อมูลของสภาพอากาศมาเทียบกันเพื่อเข้าใจว่าเกิดอะไรขึ้น ยอดขายถึงตกในช่วงที่ผ่านมา โดยระบบวิเคราะห์ที่มีความซับซ้อนในช่วงที่ผ่านมานั้น จะเป็นแบบที่รู้จักกันว่า ‘Predictive’ โดยการใช้ข้อมูลและสถิติต่างๆ เพื่อคาดเดาว่าจะเกิดอะไรขึ้น พร้อมสกัดรูปแบบความสัมพันธ์ที่สามารถนำไปใช้กับเหตุการณ์ที่ยังไม่เกิดขึ้นได้ เทคนิคการวิเคราะห์จะเป็นกลุ่มเทคนิคการทำเหมืองข้อมูล (Data Mining) หรือ การเรียนรู้ของเครื่องจักร (Machine Learning) คำถามการวิเคราะห์จะเป็นคำถามเชิงทำนาย เช่น ลูกค้าคนนี้ซื้อของชิ้นนี้ แล้วน่าจะซื้ออะไรต่อไป  ตอนนี้เราเริ่มเห็นเครื่องมือวิเคราะห์ที่ไปไกลกว่านั้นที่ชื่อว่า ‘Prescriptive’ โดยระบบนี้จะเป็นการวิเคราะห์ที่สามารถบอกได้ว่าต้องทำอะไรเพื่อให้ได้ผลลัพธ์ที่ดีที่สุดภายใต้เงื่อนไขที่จำกัด โดยเทคนิคที่ใช้ก็คือ Optimization ตัวอย่างคำถามการวิเคราะห์ เช่น ควรตั้งราคาสินค้าเท่าไหร่ดี ถึงจะได้กำไรสูงสุด หรือจะต้องวางแผนการสั่งสินค้าในเวลาใด หรือเส้นทางใดจึงจะใช้ต้นทุนต่ำที่สุด มีการคาดเดาว่า 2/3 ของธุรกิจจะปรับมาใช้โมเดลนี้ภายในปี 2021

ที่มาของข้อมูล https://www.gqthailand.com/toys/article/bigdata2020

สร้างเว็บไซต์สำเร็จรูปฟรี ร้านค้าออนไลน์