ปรับแต่งการตั้งค่าการให้ความยินยอม

เราใช้คุกกี้เพื่อช่วยให้คุณสามารถไปยังส่วนต่าง ๆ ได้อย่างมีประสิทธิภาพและทำหน้าที่บางอย่าง คุณจะพบข้อมูลโดยละเอียดเกี่ยวกับคุกกี้ทั้งหมดภายใต้หมวดหมู่ความยินยอมแต่ละประเภทด้านล่าง คุกกี้ที่ได้รับการจัดหมวดหมู่ว่า "จำเป็น" จะถูกจัดเก็บไว้ในเบราว์เซอร์ของคุณ เนื่องจากมีความจำเป็นต่อการทำงานของฟังก์ชันพื้นฐานของเว็บไซต์... 

ใช้งานอยู่เสมอ

คุกกี้ที่จำเป็นมีความสำคัญต่อฟังก์ชันพื้นฐานของเว็บไซต์ และเว็บไซต์จะไม่สามารถทำงานได้ตามวัตถุประสงค์หากไม่มีคุกกี้เหล่านี้

คุกกี้เหล่านี้ไม่จัดเก็บข้อมูลที่สามารถระบุตัวบุคคลได้

ไม่มีคุกกี้ที่จะแสดง

คุกกี้แบบฟังก์ชันนอลช่วยทำหน้าที่บางอย่าง เช่น แบ่งปันเนื้อหาของเว็บไซต์บนแพลตฟอร์มโซเชียลมีเดีย รวบรวมความคิดเห็น และฟีเจอร์อื่นๆ ของบุคคลที่สาม

ไม่มีคุกกี้ที่จะแสดง

คุกกี้วิเคราะห์ใช้เพื่อทำความเข้าใจวิธีการที่ผู้เยี่ยมชมโต้ตอบกับเว็บไซต์ คุกกี้เหล่านี้ช่วยให้ข้อมูลเกี่ยวกับตัวชี้วัด เช่น จำนวนผู้เข้าชม อัตราตีกลับ แหล่งที่มาของการเข้าชม ฯลฯ

ไม่มีคุกกี้ที่จะแสดง

คุกกี้ประสิทธิภาพใช้เพื่อทำความเข้าใจและวิเคราะห์ดัชนีประสิทธิภาพหลักของเว็บไซต์ซึ่งจะช่วยให้สามารถมอบประสบการณ์การใช้งานที่ดีขึ้นแก่ผู้เยี่ยมชม

ไม่มีคุกกี้ที่จะแสดง

คุกกี้โฆษณาใช้เพื่อส่งโฆษณาที่ได้รับการปรับแต่งตามการเข้าชมก่อนหน้านี้ และวิเคราะห์ประสิทธิภาพของแคมเปญโฆษณา

ไม่มีคุกกี้ที่จะแสดง

Step การวิเคราะห์ data บน BigData Platform 

Data Analytics

สวัสดีค่า .. วันนี้ จะขอพูดเรื่อง Step การวิเคราะห์ Data นะคะ โดยสิ่งที่อธิบายอันนี้ก็จะเป็นสิ่งที่เคยทำมาจากประสพการณ์ จริงค่ะ บางคนอาจจะมีวิธีอื่น ยังไงก็ลองมาแชร์ กันนะคะ

1. ระบุแหล่งข้อมูล:

กำหนดแหล่งที่มาของข้อมูลชนิดต่างๆ ที่เราต้องการวิเคราะห์ เช่น ฐานข้อมูล, log file, API ซึ่งการตั้งความถี่ของการได้ข้อมูลเมื่อข้อมูลเข้ามาจะแตกต่างกันไปตามประเภทเหล่านี้

ตรวจสอบ ข้อมุลต้นทาง

2. ดึงและแปลงข้อมูล:

ใช้เครื่องมือ เช่น Apache NiFi หรือ Apache Kafka เพื่อดึงข้อมูลจากแหล่งที่มาต่างๆ แล้วจึงใช้ Apache Pig หรือ Apache Hive เพื่อแปลงข้อมูลให้อยู่ในรูปแบบที่สามารถนำไปวิเคราะห์ต่อได้ง่าย ซึ่งสำหรับ Developer ภาษาที่ใช้ในการจัดการแปลงข้อมูลหรือการทำ Cleasing สามารถใช้พวก Python

ทำการ ดึง หรือ แปลงข้อมูล

3. โหลดข้อมูลลงบน Big Data Platform:

ใช้เครื่องมือ เช่น Apache Hadoop หรือ Apache Spark มาโหลดข้อมูลที่ถูกแปลงแล้วลงในระบบจัดเก็บข้อมูลแบบกระจาย เช่น HDFS หรือ Apache Cassandra

โหลดข้อมูลเข้า Bigdata platform

4. ดำเนินการวิเคราะห์:

ใช้เครื่องมือ เช่น Apache Hive หรือ Apache Spark SQL ในการทำ SQL-like queries กับข้อมูลและการแยกข้อมูลเชิงลึก กรณีที่เป็น Google Cloud Platform สามารถใช้ Google BigQuery และนอกจากนี้ยังสามารถใช้ machine learning library อย่าง Apache Mahout หรือ MLlib ในการวิเคราะห์ข้อมูลขั้นสูง

ทำการวิเคราะห์

5. สร้างภาพของผลลัพธ์:

ใช้เครื่องมือสร้างภาพ เช่น Apache Superset, Tableau, PowerBI หรือโปรแกรม BI อื่นๆ ที่นิยมในตลาดในการนำเสนอข้อมูลเชิงลึกอย่างชัดเจนและรัดกุม ตัว BI โดยทั่วไปสามารถแสดงข้อมูลในรูปแบบ graph ต่างๆ หรือ สร้างมุมมองหลายมิติ บางตัวสามารถทำ Realtime Analytic ได้ 

นำมาแสดงผลบน BI

6. เฝ้าสังเกตและบำรุงรักษา:

สังเกตการณ์ประสิทธิภาพของระบบและทำการปรับปรุงหากจำเป็น หมั่นตรวจสอบข้อมูลในด้านความถูกต้องและความสมบูรณ์ และอัปเดตระบบให้สอดคล้องกัน ระบบเมื่อทำเสร็จแล้วจะเป็นหน้าที่ของทีมดูแล โดยอาจมีหลายปัจจัยให้ดูแล ไม่ว่าจะเป็นการตรวจสอบ log, การ clean log หรือการตรวจสอบทรัพยากรบน Cloud ในกรณีที่พัฒนาระบบเป็น on cloud 

คอย monitor