สรุปเนื้อหาการสัมมนา "AI & Data Governance เบื้องหลังความสำเร็จขององค์กรยุค AI"


ข้อมูลทั่วไป
วันที่และเวลา: วันเสาร์ที่ 26 กรกฎาคม 2568 เวลา 13.00 น.
วิทยากร: ผศ.ดร. โษฑศ์รัตต ธรรมบุษดี ("อ.โอม")
รูปแบบ: (Webinar) การบรรยายแบบอัปเดตสั้น ๆ ไม่เน้นการสอนพื้นฐาน แต่เป็นการเล่าให้ฟังเพื่อจุดประกายไอเดีย
บทนำ
การสัมมนาครั้งนี้มีจุดประสงค์หลักเพื่ออัปเดตความรู้และสร้างความเข้าใจเกี่ยวกับความสัมพันธ์ะหว่าง AI Governance และ Data Governance ในบริบทขององค์กรสมัยใหม่ ซึ่งต้องเผชิญกับความท้าทายจากการเปลี่ยนแปลงของเทคโนโลยีที่รวดเร็วและความซับซ้อนของกฎระเบียบต่างๆ ที่เกี่ยวข้อง อ.โอมได้แบ่งปันประสบการณ์และความรู้จากการทำงานในสาขานี้มาอย่างยาวนาน โดยเน้นย้ำถึงความสำคัญของการมีกรอบการกำกับดูแลที่ชัดเจนและเหมาะสมกับบริบทขององค์กร
ภาพรวมของ AI ในยุคปัจจุบัน
การพัฒนาของ AI: ในช่วง 2 ปีที่ผ่านมา (นับจาก ChatGPT) AI มีความก้าวหน้าอย่างรวดเร็ว สามารถทำสิ่งที่เคยเป็นไปไม่ได้ในอดีต และกลายเป็นส่วนหนึ่งของชีวิตประจำวันและการทำงาน
ยุค AI (Big Wave): อ.โอมระบุว่านี่คือยุค AI ซึ่งแตกต่างจากยุคก่อนหน้า (เช่น Big Data, Digital Transformation) เนื่องจาก AI เข้ามาใกล้ชิดกับบุคลากรทุกคนในองค์กรและมีผลกระทบต่อชีวิตประจำวันอย่างมาก
ความจำเป็นในการปรับตัว: องค์กรต้องปรับตัวเพื่อใช้ AI เพิ่มประสิทธิภาพและสร้างความได้เปรียบในการแข่งขัน ควบคู่ไปกับการกำกับดูแลที่เหมาะสมจากภาครัฐและหน่วยงานกำกับดูแล (เช่น DGA และสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์) ที่เริ่มวางกรอบกฎหมายและแนวทาง
ความสัมพันธ์ระหว่าง AI และ Data Governance
โดยหลักการแล้ว ควรมี Data Governance ก่อนที่จะมี AI แต่ในความเป็นจริงหลายองค์กรมีการนำ AI มาใช้แล้วโดยที่ยังไม่มี Data Governance ที่ชัดเจน ซึ่งอาจส่งผลให้ผลลัพธ์ของ AI ไม่ถูกต้อง อย่างไรก็ตาม สามารถแก้ไขปัญหาเฉพาะหน้าได้โดยการจำกัดข้อมูลและการใช้งาน AI ให้ยังคงอยู่ในกรอบจริยธรรม
ข้อมูลคือหัวใจของ AI: คุณภาพของ AI ขึ้นอยู่กับคุณภาพของข้อมูลที่ใช้ฝึกฝน (Training Data) หากข้อมูลไม่มีคุณภาพ AI ก็ไม่สามารถทำงานได้อย่างมีประสิทธิภาพ
Data Governance: การกำกับดูแลข้อมูลที่ดีต้องมุ่งเน้นคุณภาพ ความปลอดภัย ความเป็นส่วนตัว (สอดคล้องกับ PDPA) และความเป็นธรรม เพื่อให้ได้ข้อมูลที่น่าเชื่อถือ ถูกต้อง และเป็นปัจจุบัน
AI Governance: การใช้งาน AI ต้องโปร่งใส มีจริยธรรม และรับผิดชอบต่อสังคม เพื่อป้องกันการใช้งานที่ผิดวัตถุประสงค์หรือก่อให้เกิดอันตราย
ความเชื่อมโยง: Data Governance และ AI Governance ต้องทำงานควบคู่กันเพื่อให้ AI มีประสิทธิภาพและปลอดภัย
หลักการสำคัญของ Data Governance
การกำกับดูแลข้อมูล (Data Governance) เป็นรากฐานสำคัญที่ช่วยให้องค์กรสามารถใช้ประโยชน์จากข้อมูลได้อย่างมีประสิทธิภาพและปลอดภัย โดยเฉพาะอย่างยิ่งในยุคที่ AI เข้ามามีบทบาทสำคัญ Data Governance ไม่ใช่เรื่องใหม่ แต่เป็นสิ่งที่องค์กรควรให้ความสำคัญอย่างต่อเนื่อง เพื่อให้มั่นใจว่าข้อมูลที่นำมาใช้ในการขับเคลื่อน AI และการดำเนินธุรกิจนั้นมีคุณภาพและน่าเชื่อถือ หลักการสำคัญของ Data Governance มีดังนี้:
คุณภาพข้อมูล (Data Quality): ข้อมูลต้องถูกต้อง น่าเชื่อถือ และเป็นปัจจุบัน หากข้อมูลที่นำมาใช้มีข้อผิดพลาด ไม่ครบถ้วน หรือล้าสมัย จะส่งผลให้ AI ประมวลผลผิดพลาดและให้ผลลัพธ์ที่ไม่ถูกต้อง ซึ่งอาจนำไปสู่การตัดสินใจทางธุรกิจที่ผิดพลาดได้
ความปลอดภัยและความเป็นส่วนตัว (Security & Privacy): การปกป้องข้อมูลจากภัยคุกคามทางไซเบอร์และการละเมิดความเป็นส่วนตัวเป็นสิ่งสำคัญอย่างยิ่ง Data Governance ต้องมั่นใจว่าข้อมูลถูกจัดเก็บ ประมวลผล และใช้งานอย่างปลอดภัย และเป็นไปตามกฎหมายคุ้มครองข้อมูลส่วนบุคคล เช่น PDPA (Personal Data Protection Act) ของประเทศไทย หากข้อมูลไม่ปลอดภัยหรือไม่รักษาความเป็นส่วนตัว อาจนำไปสู่ความเสียหายต่อชื่อเสียงขององค์กรและผลกระทบทางกฎหมาย
ความเป็นธรรมและไม่มีอคติ (Fairness & Bias): ข้อมูลที่นำมาใช้ในการฝึกฝน AI จะต้องมีความเป็นธรรมและไม่มีอคติ โดยอคติในข้อมูล (Data Bias) อาจเกิดขึ้นได้จากหลายสาเหตุ เช่น การเก็บข้อมูลที่ไม่ครอบคลุมกลุ่มประชากรทั้งหมด หรือการมีข้อมูลที่เอนเอียงไปทางใดทางหนึ่ง หาก AI ถูกฝึกฝนด้วยข้อมูลที่มีอคติ ก็จะทำให้ AI ตัดสินใจอย่างลำเอียงและไม่เป็นธรรมต่อบางกลุ่มบุคคล ซึ่งอาจนำไปสู่ปัญหาทางสังคมและจริยธรรมได้ Data Governance จึงต้องมีกระบวนการตรวจสอบและลดอคติในข้อมูล เพื่อให้ AI ที่สร้างขึ้นมามีความเป็นธรรม
การตรวจสอบที่มาของข้อมูล (Provenance & Lineage): องค์กรจะต้องสามารถตรวจสอบที่มาของข้อมูล (Data Provenance) และเส้นทางของข้อมูล (Data Lineage) ได้ ซึ่งหมายถึงการรู้ว่าข้อมูลมาจากแหล่งใด ผ่านกระบวนการใดบ้าง และมีการเปลี่ยนแปลงอย่างไรตลอดวงจรชีวิตของข้อมูล การตรวจสอบที่มาของข้อมูลช่วยให้องค์กรสามารถติดตามและทำความเข้าใจการไหลของข้อมูล ทำให้สามารถระบุปัญหาด้านคุณภาพหรือความปลอดภัยได้อย่างรวดเร็ว และสร้างความน่าเชื่อถือให้กับข้อมูลที่นำมาใช้
การบริหารจัดการข้อมูล: รวมถึงการจัดประเภทข้อมูล (Data Classification) และการกำหนดสิทธิ์การเข้าถึง
การมี Data Governance ที่แข็งแกร่งจะช่วยให้องค์กรมีข้อมูลที่มีคุณภาพสูง ปลอดภัย และเชื่อถือได้ ซึ่งเป็นปัจจัยสำคัญในการขับเคลื่อน AI ให้ประสบความสำเร็จและสร้างคุณค่าให้กับองค์กรในระยะยาว
หลักการสำคัญของ AI Governance
ความโปร่งใสและสามารถอธิบายได้ (Transparency & Explainability): ต้องระบุได้ว่า AI ใช้ข้อมูลอะไร กระบวนการสร้างเป็นอย่างไร และผลลัพธ์มาจากปัจจัยใด
การตรวจสอบความถูกต้อง (Validation): ต้องมีกระบวนการตรวจสอบความแม่นยำของ AI อย่างสม่ำเสมอ ทั้งในเชิงสถิติ (เช่น F1 Score, Accuracy) และในโลกแห่งความเป็นจริง (Real-World Validation) เป็นการประเมินว่า AI ทำงานได้ถูกต้องและปลอดภัยในสถานการณ์จริงหรือไม่
การบริหารจัดการความเสี่ยง (Risk Management): ครอบคลุมความเสี่ยงตั้งแต่การพัฒนาไปจนถึงการใช้งาน AI Governance จึงต้องมีกรอบการบริหารจัดการความเสี่ยงที่ครอบคลุม ความเสี่ยงเหล่านี้อาจรวมถึง
ความเสี่ยงด้านข้อมูล: การใช้ข้อมูลที่ละเมิดความเป็นส่วนตัว (PDPA) หรือข้อมูลที่มีอคติ (Bias) ในการฝึกฝน AI
ความเสี่ยงด้านการทำงาน: การที่ AI ทำงานผิดพลาดหรือไม่เป็นไปตามที่คาดหวัง ซึ่งอาจส่งผลกระทบต่อธุรกิจหรือผู้ใช้งาน
ความเสี่ยงด้านจริยธรรมและสังคม: การที่ AI ก่อให้เกิดผลกระทบเชิงลบต่อชีวิตมนุษย์ สภาพแวดล้อม หรือสังคมในภาพรวม เช่น การเลือกปฏิบัติ หรือการละเมิดสิทธิมนุษยชน
ความรับผิดชอบต่อสังคมและจริยธรรม (Social Responsibility & Ethics): การใช้งาน AI จะต้องเป็นไปตามหลักจริยธรรมและมีความรับผิดชอบต่อสังคมโดยรวม ซึ่งหมายถึงการที่องค์กรต้องพิจารณาถึงผลกระทบในวงกว้างของการนำ AI ไปใช้ และต้องมั่นใจว่า AI นั้นถูกพัฒนาและใช้งานในลักษณะที่ส่งเสริมคุณค่าทางสังคม ไม่ก่อให้เกิดอันตราย หรือสร้างความไม่เท่าเทียม หลักการนี้สอดคล้องกับแนวคิดเรื่อง AI Ethics ที่กำลังเป็นที่พูดถึงอย่างกว้างขวางในระดับสากล การมี AI Governance ที่ดีจะช่วยให้องค์กรสามารถนำ AI มาใช้ประโยชน์ได้อย่างเต็มศักยภาพ พร้อมทั้งลดความเสี่ยงและสร้างความเชื่อมั่นให้กับผู้มีส่วนได้ส่วนเสียทุกฝ่าย
การกำกับโดยมนุษย์ (Human Oversight): AI ที่มีความเสี่ยงสูงต้องมีมนุษย์ควบคุม โดยเฉพาะในด้านที่เกี่ยวข้องกับความมั่นคง สุขภาพ หรือการตัดสินใจที่มีผลกระทบต่อบุคคลหรือสังคม
กรอบการทำงานแบบผสมผสาน
แนวคิด: อ.โอมได้เสนอแนวคิดในการรวม Data Governance และ AI Governance เข้าไว้ด้วยกันเป็นกรอบการทำงานเดียว หรือที่เรียกว่า Unified Intelligent Governance Framework แนวคิดนี้เกิดจากความเข้าใจที่ว่าทั้งสองส่วนมีความเชื่อมโยงและพึ่งพาอาศัยกันอย่างแยกไม่ออก การมีกรอบการทำงานแบบผสมผสานจะช่วยให้องค์กรสามารถบริหารจัดการทั้งข้อมูลและ AI ได้อย่างเป็นระบบและมีประสิทธิภาพมากขึ้น
องค์ประกอบ:
Holistic Data & Model Catalog: นอกจากบัญชีข้อมูล (Data Catalog) ควรมีบัญชีโมเดล AI (Model Catalog) เพื่อทราบว่าองค์กรมีโมเดลอะไรบ้างและใครสามารถเข้าถึงได้
Data Quality: การติดตามและแก้ไขคุณภาพข้อมูลอย่างต่อเนื่องเป็นสิ่งสำคัญ Data Quality Monitoring เป็นกระบวนการที่ช่วยให้องค์กรสามารถตรวจจับปัญหาด้านคุณภาพข้อมูลได้ตั้งแต่เนิ่นๆ และดำเนินการแก้ไขได้อย่างทันท่วงที การจัดการคุณภาพข้อมูลต้องเปลี่ยนจากเชิงแก้ไข (Corrective) เป็นเชิงป้องกัน (Preventive) โดยมีกระบวนการติดตามและแก้ไข การมีข้อมูลที่มีคุณภาพสูงอย่างสม่ำเสมอเป็นปัจจัยสำคัญที่ทำให้ AI สามารถทำงานได้อย่างแม่นยำและน่าเชื่อถือ
Regulatory Compliance: ต้องปฏิบัติตามกฎหมายที่เกี่ยวข้อง ไม่ใช่แค่กฎหมาย AI โดยตรง แต่รวมถึงกฎหมายอื่นๆ ทั้งในและต่างประเทศ
Cross-functional Collaboration: ไม่ใช่เรื่องของฝ่ายเทคโนโลยี (Tech) เพียงอย่างเดียว แต่ต้องอาศัยความร่วมมือจากฝ่ายธุรกิจ (Business), ความเสี่ยง (Risk), และฝ่ายอื่นๆ ที่เกี่ยวข้อง
Human Oversight: ระบบ AI ที่มีความเสี่ยงสูงจำเป็นต้องมีมนุษย์คอยกำกับดูแลและควบคุมการตัดสินใจในขั้นตอนสุดท้าย
มาตรฐานและกรอบการทำงานที่เกี่ยวข้อง
มาตรฐานและกรอบการทำงานต่างๆ ที่เกี่ยวข้องกับการกำกับดูแล AI และข้อมูล เช่น:
ในระดับโลก:
EU มีกฎหมายที่เกี่ยวข้อง เช่น EU AI Act, Data Governance Act และ Digital Service Act ซึ่งบางส่วนมองว่าเน้นการปฏิบัติตามกฎระเบียบ (Compliance) มากกว่าการส่งเสริมนวัตกรรม
DAMA-DMBOK: Framework ด้านการบริหารจัดการข้อมูล
ISO/IEC 42001 (AI Management System): มาตรฐานระบบการจัดการ AI ซึ่งครอบคลุมตั้งแต่การเข้าใจบริบทองค์กร, ภาวะผู้นำ, การวางแผน, การปฏิบัติการ, และการประเมินผล
ISO/IEC 23894 (AI Risk Management): มาตรฐานการจัดการความเสี่ยงด้าน AI
AI Ethic Principles (OECD): หลักจริยธรรม AI ของ OECD ที่เน้นการมีประโยชน์ต่อมนุษย์, เคารพสิทธิมนุษยชน, ความโปร่งใส, ความมั่นคงปลอดภัย และความรับผิดชอบ
การถอนร่าง AI Liability Directive ในปี 2025 แสดงถึงการทบทวนเพื่อให้สอดคล้องกับความก้าวหน้าทางเทคโนโลยี
ในประเทศไทย:
มีความก้าวหน้าในด้านกฎหมาย เช่น PDPA ที่บังคับใช้ตั้งแต่ปี 2565 และการพัฒนาร่างกฎหมาย AI โดยหน่วยงานภาครัฐ เช่น สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA)
มีกรอบ Data Governance Framework จาก DGA และ AI Governance Framework ที่เริ่มมีแนวทางเพิ่มเติม
มีการรับฟังความเห็นของร่างกฎหมาย AI ไปเมื่อเดือน มิ.ย. 2568
แนวทางการเริ่มต้นสำหรับองค์กร
ไม่จำเป็นต้องรอให้ Data Governance เสร็จสมบูรณ์: สามารถเริ่มต้นทำทั้งสองเรื่องควบคู่กันไปได้ โดยอาจเริ่มจากการออกนโยบายหรือแนวปฏิบัติ (Guideline) การใช้ AI ในองค์กรเพื่อแก้ปัญหาเฉพาะหน้าก่อน
เริ่มต้นจากหลักการ (Principle-First): ควรประกาศ หลักจริยธรรม (Ethics) เป็นอันดับแรก เพื่อสร้างกรอบความคิดร่วมกัน แล้วจึงขยายผลไปสู่ข้อควรปฏิบัติและข้อห้ามต่างๆ
ปรับตามขนาดองค์กร:
องค์กรขนาดเล็ก: เริ่มจากการมีผู้รับผิดชอบที่ชัดเจนหรือทีมเล็กๆ
องค์กรขนาดใหญ่: ควรพิจารณาตั้งคณะกรรมการและวางโครงสร้างที่เป็นทางการมากขึ้น เพื่อให้การกำกับดูแลเป็นไปอย่างมีระบบและครอบคลุม
พิจารณาตามบริบท: ดูว่า AI ถูกใช้ภายในองค์กรหรือกับลูกค้า เพื่อกำหนดระดับความเข้มข้นของการกำกับดูแล
ตัวอย่างการประยุกต์ใช้: นโยบายของมหาวิทยาลัยมหิดลกำหนดให้คณะต่าง ๆ สามารถออกไกด์ไลน์การใช้ AI ที่สอดคล้องกับนโยบายใหญ่ของมหาวิทยาลัย โดยคณะขนาดใหญ่ (เช่น คณะแพทยศาสตร์) อาจมีนโยบายของตนเอง แต่ต้องไม่ขัดแย้งกับนโยบายหลัก
ตัวอย่างการประยุกต์ใช้ในองค์กร
กรณีศึกษามหาวิทยาลัยมหิดล:
ออกนโยบายและแนวปฏิบัติ (Guideline) สำหรับการใช้ Generative AI ในงานด้านการศึกษา เพื่อควบคุมการใช้งานของนักศึกษาและอาจารย์
นโยบายระดับคณะต้องสอดคล้องกับนโยบายมหาวิทยาลัย โดยคณะขนาดใหญ่ เช่น คณะแพทยศาสตร์ศิริราชพยาบาล อาจมีแนวปฏิบัติเฉพาะของตนเอง
เน้นการมีนโยบายที่ชัดเจน การปฏิบัติจริง และการติดตามผล (Monitoring) เพื่อให้มั่นใจว่าการใช้ AI สอดคล้องกับจริยธรรมและเป้าหมายขององค์กร
บทสรุป
ความสำคัญ: Data Governance และ AI Governance เป็นสิ่งจำเป็นสำหรับองค์กรในยุค AI เพื่อให้มั่นใจว่า AI ถูกใช้งานอย่างมีจริยธรรม ปลอดภัย และมีประสิทธิภาพ การกำกับดูแลที่ดีช่วยลดความเสี่ยงและเพิ่มความน่าเชื่อถือ
แนวทาง: องค์กรควรกำหนดนโยบาย โครงสร้าง และกระบวนการที่ชัดเจน รวมถึงมีการติดตามและประเมินผลอย่างต่อเนื่อง
เป้าหมาย: การกำกับดูแลที่เหมาะสมจะช่วยให้องค์กรใช้ประโยชน์จาก AI ได้อย่างเต็มที่ สอดคล้องกับกฎหมายทั้งในและต่างประเทศ และสร้างความได้เปรียบในการแข่งขัน
Subscribe to my newsletter
Read articles from Kitisak Thossaensin directly inside your inbox. Subscribe to the newsletter, and don't miss out.
Written by
