สรุปเนื้อหาการสัมมนา "AI & Data Governance เบื้องหลังความสำเร็จขององค์กรยุค AI"

ข้อมูลทั่วไป

  • วันที่และเวลา: วันเสาร์ที่ 26 กรกฎาคม 2568 เวลา 13.00 น.

  • วิทยากร: ผศ.ดร. โษฑศ์รัตต ธรรมบุษดี ("อ.โอม")

  • รูปแบบ: (Webinar) การบรรยายแบบอัปเดตสั้น ๆ ไม่เน้นการสอนพื้นฐาน แต่เป็นการเล่าให้ฟังเพื่อจุดประกายไอเดีย

บทนำ

การสัมมนาครั้งนี้มีจุดประสงค์หลักเพื่ออัปเดตความรู้และสร้างความเข้าใจเกี่ยวกับความสัมพันธ์ะหว่าง AI Governance และ Data Governance ในบริบทขององค์กรสมัยใหม่ ซึ่งต้องเผชิญกับความท้าทายจากการเปลี่ยนแปลงของเทคโนโลยีที่รวดเร็วและความซับซ้อนของกฎระเบียบต่างๆ ที่เกี่ยวข้อง อ.โอมได้แบ่งปันประสบการณ์และความรู้จากการทำงานในสาขานี้มาอย่างยาวนาน โดยเน้นย้ำถึงความสำคัญของการมีกรอบการกำกับดูแลที่ชัดเจนและเหมาะสมกับบริบทขององค์กร

ภาพรวมของ AI ในยุคปัจจุบัน

  • การพัฒนาของ AI: ในช่วง 2 ปีที่ผ่านมา (นับจาก ChatGPT) AI มีความก้าวหน้าอย่างรวดเร็ว สามารถทำสิ่งที่เคยเป็นไปไม่ได้ในอดีต และกลายเป็นส่วนหนึ่งของชีวิตประจำวันและการทำงาน

  • ยุค AI (Big Wave): อ.โอมระบุว่านี่คือยุค AI ซึ่งแตกต่างจากยุคก่อนหน้า (เช่น Big Data, Digital Transformation) เนื่องจาก AI เข้ามาใกล้ชิดกับบุคลากรทุกคนในองค์กรและมีผลกระทบต่อชีวิตประจำวันอย่างมาก

  • ความจำเป็นในการปรับตัว: องค์กรต้องปรับตัวเพื่อใช้ AI เพิ่มประสิทธิภาพและสร้างความได้เปรียบในการแข่งขัน ควบคู่ไปกับการกำกับดูแลที่เหมาะสมจากภาครัฐและหน่วยงานกำกับดูแล (เช่น DGA และสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์) ที่เริ่มวางกรอบกฎหมายและแนวทาง

ความสัมพันธ์ระหว่าง AI และ Data Governance

โดยหลักการแล้ว ควรมี Data Governance ก่อนที่จะมี AI แต่ในความเป็นจริงหลายองค์กรมีการนำ AI มาใช้แล้วโดยที่ยังไม่มี Data Governance ที่ชัดเจน ซึ่งอาจส่งผลให้ผลลัพธ์ของ AI ไม่ถูกต้อง อย่างไรก็ตาม สามารถแก้ไขปัญหาเฉพาะหน้าได้โดยการจำกัดข้อมูลและการใช้งาน AI ให้ยังคงอยู่ในกรอบจริยธรรม

  • ข้อมูลคือหัวใจของ AI: คุณภาพของ AI ขึ้นอยู่กับคุณภาพของข้อมูลที่ใช้ฝึกฝน (Training Data) หากข้อมูลไม่มีคุณภาพ AI ก็ไม่สามารถทำงานได้อย่างมีประสิทธิภาพ

  • Data Governance: การกำกับดูแลข้อมูลที่ดีต้องมุ่งเน้นคุณภาพ ความปลอดภัย ความเป็นส่วนตัว (สอดคล้องกับ PDPA) และความเป็นธรรม เพื่อให้ได้ข้อมูลที่น่าเชื่อถือ ถูกต้อง และเป็นปัจจุบัน

  • AI Governance: การใช้งาน AI ต้องโปร่งใส มีจริยธรรม และรับผิดชอบต่อสังคม เพื่อป้องกันการใช้งานที่ผิดวัตถุประสงค์หรือก่อให้เกิดอันตราย

  • ความเชื่อมโยง: Data Governance และ AI Governance ต้องทำงานควบคู่กันเพื่อให้ AI มีประสิทธิภาพและปลอดภัย

หลักการสำคัญของ Data Governance

การกำกับดูแลข้อมูล (Data Governance) เป็นรากฐานสำคัญที่ช่วยให้องค์กรสามารถใช้ประโยชน์จากข้อมูลได้อย่างมีประสิทธิภาพและปลอดภัย โดยเฉพาะอย่างยิ่งในยุคที่ AI เข้ามามีบทบาทสำคัญ Data Governance ไม่ใช่เรื่องใหม่ แต่เป็นสิ่งที่องค์กรควรให้ความสำคัญอย่างต่อเนื่อง เพื่อให้มั่นใจว่าข้อมูลที่นำมาใช้ในการขับเคลื่อน AI และการดำเนินธุรกิจนั้นมีคุณภาพและน่าเชื่อถือ หลักการสำคัญของ Data Governance มีดังนี้:

  • คุณภาพข้อมูล (Data Quality): ข้อมูลต้องถูกต้อง น่าเชื่อถือ และเป็นปัจจุบัน หากข้อมูลที่นำมาใช้มีข้อผิดพลาด ไม่ครบถ้วน หรือล้าสมัย จะส่งผลให้ AI ประมวลผลผิดพลาดและให้ผลลัพธ์ที่ไม่ถูกต้อง ซึ่งอาจนำไปสู่การตัดสินใจทางธุรกิจที่ผิดพลาดได้

  • ความปลอดภัยและความเป็นส่วนตัว (Security & Privacy): การปกป้องข้อมูลจากภัยคุกคามทางไซเบอร์และการละเมิดความเป็นส่วนตัวเป็นสิ่งสำคัญอย่างยิ่ง Data Governance ต้องมั่นใจว่าข้อมูลถูกจัดเก็บ ประมวลผล และใช้งานอย่างปลอดภัย และเป็นไปตามกฎหมายคุ้มครองข้อมูลส่วนบุคคล เช่น PDPA (Personal Data Protection Act) ของประเทศไทย หากข้อมูลไม่ปลอดภัยหรือไม่รักษาความเป็นส่วนตัว อาจนำไปสู่ความเสียหายต่อชื่อเสียงขององค์กรและผลกระทบทางกฎหมาย

  • ความเป็นธรรมและไม่มีอคติ (Fairness & Bias): ข้อมูลที่นำมาใช้ในการฝึกฝน AI จะต้องมีความเป็นธรรมและไม่มีอคติ โดยอคติในข้อมูล (Data Bias) อาจเกิดขึ้นได้จากหลายสาเหตุ เช่น การเก็บข้อมูลที่ไม่ครอบคลุมกลุ่มประชากรทั้งหมด หรือการมีข้อมูลที่เอนเอียงไปทางใดทางหนึ่ง หาก AI ถูกฝึกฝนด้วยข้อมูลที่มีอคติ ก็จะทำให้ AI ตัดสินใจอย่างลำเอียงและไม่เป็นธรรมต่อบางกลุ่มบุคคล ซึ่งอาจนำไปสู่ปัญหาทางสังคมและจริยธรรมได้ Data Governance จึงต้องมีกระบวนการตรวจสอบและลดอคติในข้อมูล เพื่อให้ AI ที่สร้างขึ้นมามีความเป็นธรรม

  • การตรวจสอบที่มาของข้อมูล (Provenance & Lineage): องค์กรจะต้องสามารถตรวจสอบที่มาของข้อมูล (Data Provenance) และเส้นทางของข้อมูล (Data Lineage) ได้ ซึ่งหมายถึงการรู้ว่าข้อมูลมาจากแหล่งใด ผ่านกระบวนการใดบ้าง และมีการเปลี่ยนแปลงอย่างไรตลอดวงจรชีวิตของข้อมูล การตรวจสอบที่มาของข้อมูลช่วยให้องค์กรสามารถติดตามและทำความเข้าใจการไหลของข้อมูล ทำให้สามารถระบุปัญหาด้านคุณภาพหรือความปลอดภัยได้อย่างรวดเร็ว และสร้างความน่าเชื่อถือให้กับข้อมูลที่นำมาใช้

  • การบริหารจัดการข้อมูล: รวมถึงการจัดประเภทข้อมูล (Data Classification) และการกำหนดสิทธิ์การเข้าถึง

การมี Data Governance ที่แข็งแกร่งจะช่วยให้องค์กรมีข้อมูลที่มีคุณภาพสูง ปลอดภัย และเชื่อถือได้ ซึ่งเป็นปัจจัยสำคัญในการขับเคลื่อน AI ให้ประสบความสำเร็จและสร้างคุณค่าให้กับองค์กรในระยะยาว

หลักการสำคัญของ AI Governance

  • ความโปร่งใสและสามารถอธิบายได้ (Transparency & Explainability): ต้องระบุได้ว่า AI ใช้ข้อมูลอะไร กระบวนการสร้างเป็นอย่างไร และผลลัพธ์มาจากปัจจัยใด

  • การตรวจสอบความถูกต้อง (Validation): ต้องมีกระบวนการตรวจสอบความแม่นยำของ AI อย่างสม่ำเสมอ ทั้งในเชิงสถิติ (เช่น F1 Score, Accuracy) และในโลกแห่งความเป็นจริง (Real-World Validation) เป็นการประเมินว่า AI ทำงานได้ถูกต้องและปลอดภัยในสถานการณ์จริงหรือไม่

  • การบริหารจัดการความเสี่ยง (Risk Management): ครอบคลุมความเสี่ยงตั้งแต่การพัฒนาไปจนถึงการใช้งาน AI Governance จึงต้องมีกรอบการบริหารจัดการความเสี่ยงที่ครอบคลุม ความเสี่ยงเหล่านี้อาจรวมถึง

    • ความเสี่ยงด้านข้อมูล: การใช้ข้อมูลที่ละเมิดความเป็นส่วนตัว (PDPA) หรือข้อมูลที่มีอคติ (Bias) ในการฝึกฝน AI

    • ความเสี่ยงด้านการทำงาน: การที่ AI ทำงานผิดพลาดหรือไม่เป็นไปตามที่คาดหวัง ซึ่งอาจส่งผลกระทบต่อธุรกิจหรือผู้ใช้งาน

    • ความเสี่ยงด้านจริยธรรมและสังคม: การที่ AI ก่อให้เกิดผลกระทบเชิงลบต่อชีวิตมนุษย์ สภาพแวดล้อม หรือสังคมในภาพรวม เช่น การเลือกปฏิบัติ หรือการละเมิดสิทธิมนุษยชน

  • ความรับผิดชอบต่อสังคมและจริยธรรม (Social Responsibility & Ethics): การใช้งาน AI จะต้องเป็นไปตามหลักจริยธรรมและมีความรับผิดชอบต่อสังคมโดยรวม ซึ่งหมายถึงการที่องค์กรต้องพิจารณาถึงผลกระทบในวงกว้างของการนำ AI ไปใช้ และต้องมั่นใจว่า AI นั้นถูกพัฒนาและใช้งานในลักษณะที่ส่งเสริมคุณค่าทางสังคม ไม่ก่อให้เกิดอันตราย หรือสร้างความไม่เท่าเทียม หลักการนี้สอดคล้องกับแนวคิดเรื่อง AI Ethics ที่กำลังเป็นที่พูดถึงอย่างกว้างขวางในระดับสากล การมี AI Governance ที่ดีจะช่วยให้องค์กรสามารถนำ AI มาใช้ประโยชน์ได้อย่างเต็มศักยภาพ พร้อมทั้งลดความเสี่ยงและสร้างความเชื่อมั่นให้กับผู้มีส่วนได้ส่วนเสียทุกฝ่าย

  • การกำกับโดยมนุษย์ (Human Oversight): AI ที่มีความเสี่ยงสูงต้องมีมนุษย์ควบคุม โดยเฉพาะในด้านที่เกี่ยวข้องกับความมั่นคง สุขภาพ หรือการตัดสินใจที่มีผลกระทบต่อบุคคลหรือสังคม

กรอบการทำงานแบบผสมผสาน

  • แนวคิด: อ.โอมได้เสนอแนวคิดในการรวม Data Governance และ AI Governance เข้าไว้ด้วยกันเป็นกรอบการทำงานเดียว หรือที่เรียกว่า Unified Intelligent Governance Framework แนวคิดนี้เกิดจากความเข้าใจที่ว่าทั้งสองส่วนมีความเชื่อมโยงและพึ่งพาอาศัยกันอย่างแยกไม่ออก การมีกรอบการทำงานแบบผสมผสานจะช่วยให้องค์กรสามารถบริหารจัดการทั้งข้อมูลและ AI ได้อย่างเป็นระบบและมีประสิทธิภาพมากขึ้น

  • องค์ประกอบ:

    • Holistic Data & Model Catalog: นอกจากบัญชีข้อมูล (Data Catalog) ควรมีบัญชีโมเดล AI (Model Catalog) เพื่อทราบว่าองค์กรมีโมเดลอะไรบ้างและใครสามารถเข้าถึงได้

    • Data Quality: การติดตามและแก้ไขคุณภาพข้อมูลอย่างต่อเนื่องเป็นสิ่งสำคัญ Data Quality Monitoring เป็นกระบวนการที่ช่วยให้องค์กรสามารถตรวจจับปัญหาด้านคุณภาพข้อมูลได้ตั้งแต่เนิ่นๆ และดำเนินการแก้ไขได้อย่างทันท่วงที การจัดการคุณภาพข้อมูลต้องเปลี่ยนจากเชิงแก้ไข (Corrective) เป็นเชิงป้องกัน (Preventive) โดยมีกระบวนการติดตามและแก้ไข การมีข้อมูลที่มีคุณภาพสูงอย่างสม่ำเสมอเป็นปัจจัยสำคัญที่ทำให้ AI สามารถทำงานได้อย่างแม่นยำและน่าเชื่อถือ

    • Regulatory Compliance: ต้องปฏิบัติตามกฎหมายที่เกี่ยวข้อง ไม่ใช่แค่กฎหมาย AI โดยตรง แต่รวมถึงกฎหมายอื่นๆ ทั้งในและต่างประเทศ

    • Cross-functional Collaboration: ไม่ใช่เรื่องของฝ่ายเทคโนโลยี (Tech) เพียงอย่างเดียว แต่ต้องอาศัยความร่วมมือจากฝ่ายธุรกิจ (Business), ความเสี่ยง (Risk), และฝ่ายอื่นๆ ที่เกี่ยวข้อง

    • Human Oversight: ระบบ AI ที่มีความเสี่ยงสูงจำเป็นต้องมีมนุษย์คอยกำกับดูแลและควบคุมการตัดสินใจในขั้นตอนสุดท้าย

มาตรฐานและกรอบการทำงานที่เกี่ยวข้อง

มาตรฐานและกรอบการทำงานต่างๆ ที่เกี่ยวข้องกับการกำกับดูแล AI และข้อมูล เช่น:

  • ในระดับโลก:

    • EU มีกฎหมายที่เกี่ยวข้อง เช่น EU AI Act, Data Governance Act และ Digital Service Act ซึ่งบางส่วนมองว่าเน้นการปฏิบัติตามกฎระเบียบ (Compliance) มากกว่าการส่งเสริมนวัตกรรม

    • DAMA-DMBOK: Framework ด้านการบริหารจัดการข้อมูล

    • ISO/IEC 42001 (AI Management System): มาตรฐานระบบการจัดการ AI ซึ่งครอบคลุมตั้งแต่การเข้าใจบริบทองค์กร, ภาวะผู้นำ, การวางแผน, การปฏิบัติการ, และการประเมินผล

    • ISO/IEC 23894 (AI Risk Management): มาตรฐานการจัดการความเสี่ยงด้าน AI

    • AI Ethic Principles (OECD): หลักจริยธรรม AI ของ OECD ที่เน้นการมีประโยชน์ต่อมนุษย์, เคารพสิทธิมนุษยชน, ความโปร่งใส, ความมั่นคงปลอดภัย และความรับผิดชอบ

    • การถอนร่าง AI Liability Directive ในปี 2025 แสดงถึงการทบทวนเพื่อให้สอดคล้องกับความก้าวหน้าทางเทคโนโลยี

  • ในประเทศไทย:

    • มีความก้าวหน้าในด้านกฎหมาย เช่น PDPA ที่บังคับใช้ตั้งแต่ปี 2565 และการพัฒนาร่างกฎหมาย AI โดยหน่วยงานภาครัฐ เช่น สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA)

    • มีกรอบ Data Governance Framework จาก DGA และ AI Governance Framework ที่เริ่มมีแนวทางเพิ่มเติม

    • มีการรับฟังความเห็นของร่างกฎหมาย AI ไปเมื่อเดือน มิ.ย. 2568

แนวทางการเริ่มต้นสำหรับองค์กร

  • ไม่จำเป็นต้องรอให้ Data Governance เสร็จสมบูรณ์: สามารถเริ่มต้นทำทั้งสองเรื่องควบคู่กันไปได้ โดยอาจเริ่มจากการออกนโยบายหรือแนวปฏิบัติ (Guideline) การใช้ AI ในองค์กรเพื่อแก้ปัญหาเฉพาะหน้าก่อน

  • เริ่มต้นจากหลักการ (Principle-First): ควรประกาศ หลักจริยธรรม (Ethics) เป็นอันดับแรก เพื่อสร้างกรอบความคิดร่วมกัน แล้วจึงขยายผลไปสู่ข้อควรปฏิบัติและข้อห้ามต่างๆ

  • ปรับตามขนาดองค์กร:

    • องค์กรขนาดเล็ก: เริ่มจากการมีผู้รับผิดชอบที่ชัดเจนหรือทีมเล็กๆ

    • องค์กรขนาดใหญ่: ควรพิจารณาตั้งคณะกรรมการและวางโครงสร้างที่เป็นทางการมากขึ้น เพื่อให้การกำกับดูแลเป็นไปอย่างมีระบบและครอบคลุม

  • พิจารณาตามบริบท: ดูว่า AI ถูกใช้ภายในองค์กรหรือกับลูกค้า เพื่อกำหนดระดับความเข้มข้นของการกำกับดูแล

  • ตัวอย่างการประยุกต์ใช้: นโยบายของมหาวิทยาลัยมหิดลกำหนดให้คณะต่าง ๆ สามารถออกไกด์ไลน์การใช้ AI ที่สอดคล้องกับนโยบายใหญ่ของมหาวิทยาลัย โดยคณะขนาดใหญ่ (เช่น คณะแพทยศาสตร์) อาจมีนโยบายของตนเอง แต่ต้องไม่ขัดแย้งกับนโยบายหลัก

ตัวอย่างการประยุกต์ใช้ในองค์กร

กรณีศึกษามหาวิทยาลัยมหิดล:

  • ออกนโยบายและแนวปฏิบัติ (Guideline) สำหรับการใช้ Generative AI ในงานด้านการศึกษา เพื่อควบคุมการใช้งานของนักศึกษาและอาจารย์

  • นโยบายระดับคณะต้องสอดคล้องกับนโยบายมหาวิทยาลัย โดยคณะขนาดใหญ่ เช่น คณะแพทยศาสตร์ศิริราชพยาบาล อาจมีแนวปฏิบัติเฉพาะของตนเอง

  • เน้นการมีนโยบายที่ชัดเจน การปฏิบัติจริง และการติดตามผล (Monitoring) เพื่อให้มั่นใจว่าการใช้ AI สอดคล้องกับจริยธรรมและเป้าหมายขององค์กร

บทสรุป

  • ความสำคัญ: Data Governance และ AI Governance เป็นสิ่งจำเป็นสำหรับองค์กรในยุค AI เพื่อให้มั่นใจว่า AI ถูกใช้งานอย่างมีจริยธรรม ปลอดภัย และมีประสิทธิภาพ การกำกับดูแลที่ดีช่วยลดความเสี่ยงและเพิ่มความน่าเชื่อถือ

  • แนวทาง: องค์กรควรกำหนดนโยบาย โครงสร้าง และกระบวนการที่ชัดเจน รวมถึงมีการติดตามและประเมินผลอย่างต่อเนื่อง

  • เป้าหมาย: การกำกับดูแลที่เหมาะสมจะช่วยให้องค์กรใช้ประโยชน์จาก AI ได้อย่างเต็มที่ สอดคล้องกับกฎหมายทั้งในและต่างประเทศ และสร้างความได้เปรียบในการแข่งขัน

0
Subscribe to my newsletter

Read articles from Kitisak Thossaensin directly inside your inbox. Subscribe to the newsletter, and don't miss out.

Written by

Kitisak Thossaensin
Kitisak Thossaensin