สรุปเนื้อหาการพูดคุย - จับสัญญาณโลกสู่ไทย : อนาคต AI Governance

ข้อมูลทั่วไป

  • วันที่และเวลา: วันจันทร์ที่ 4 สิงหาคม 2568 เวลา 11.00 น.

  • ผู้เข้าร่วมพูดคุย:

    • คุณกุลธวัช คำแมน (คุณเนม)

    • คุณหทัยชนก พุทธรักษา (คุณเก๋)

    • คุณหัตถพงษ์ หิรัญรัตน์ (คุณเติ้ล)

  • รูปแบบ: (Talk) พูดคุยแบ่งปันข้อมูลในหัวข้อที่เกี่ยวข้องกับ AI Governance

บทนำ

การพูดคุยในหัวข้อ "จับสัญญาณโลกสู่ไทย: อนาคต AI Governance" จัดขึ้นโดย ETDA Thailand ใน EP6 โดยมีผู้เชี่ยวชาญ 3 ท่านร่วมให้ข้อมูลและมุมมอง ได้แก่ คุณกุลธวัช คำแมน, คุณหทัยชนก พุทธรักษา และคุณหัตถพงษ์ หิรัญรัตน์ การพูดคุยนี้มุ่งเน้นไปที่มุมมองในอนาคตของ AI และความจำเป็นในการกำกับดูแล AI (AI Governance) เพื่อรับมือกับความท้าทายและใช้ประโยชน์จาก AI ได้อย่างยั่งยืนและปลอดภัย

สัญญาณจากโลก: ภัยคุกคามและความร่วมมือระหว่างประเทศ

ภัยคุกคามและความเสี่ยงจาก AI

คุณเนม ชี้ให้เห็นถึงภัยคุกคามจาก AI โดยเฉพาะในด้าน ความปลอดภัยทางไซเบอร์ และ การใช้ข้อมูลส่วนบุคคลในทางที่ผิด เช่น การปลอมแปลงข้อมูล (deepfake) และการโจมตีทางไซเบอร์ที่ใช้ AI เขายกตัวอย่างกรณีดาราและศิลปินในประเทศไทยที่ถูกนำข้อมูลส่วนตัวไปใช้โดยไม่ได้รับอนุญาต และระบุสถิติที่น่าตกใจว่า การโจมตีทางไซเบอร์ที่ใช้ AI เพิ่มขึ้นประมาณ 4,100% ตั้งแต่ปี 2022 และคาดว่าความเสียหายจะสูงถึง 10.5 ล้านล้านดอลลาร์สหรัฐ ในปี 2025 ซึ่งสะท้อนถึงความจำเป็นในการกำกับดูแลเพื่อป้องกันการใช้ AI ในทางที่ผิด

มุมมองด้านความร่วมมือระหว่างประเทศและผลกระทบของ AI ต่อการทำงาน

คุณเติ้ล ได้เสริมมุมมองเกี่ยวกับสัญญาณสำคัญ 3 ประการที่บ่งชี้ถึงอนาคตของ AI Governance ในระดับสากล

  1. ความพร้อมที่แตกต่างกันของแต่ละประเทศ: แต่ละประเทศมีความพร้อมในการดูแล AI อย่างมีธรรมาภิบาลไม่เท่ากัน ซึ่งส่งผลให้เกิดช่องโหว่ในระดับระหว่างประเทศ เนื่องจากพรมแดนดิจิทัลมีความบางลง การดูแลความเสี่ยงจึงไม่สามารถจำกัดอยู่แค่ภายในประเทศได้ สหประชาชาติได้ตระหนักถึงปัญหานี้และเสนอแนวทางแก้ไข เช่น การจัดตั้งกองทุนระหว่างประเทศเพื่อส่งเสริม AI Governance และการมีฟอรัมเพื่อหารือเกี่ยวกับนโยบายอย่างต่อเนื่อง

  2. อนุสัญญา AI ฉบับแรกของโลก: สภายุโรป (Council of Europe) ได้ออก Convention เรื่อง AI ซึ่งถือเป็นอนุสัญญา AI ฉบับแรกของโลก โดยมีหลายประเทศทั้งในและนอกสหภาพยุโรปเข้าร่วมลงนาม อนุสัญญานี้วางหลักการสำคัญ 3 ประการ ได้แก่

    • การส่งเสริมฉันทามติว่า AI ควรมีคุณค่าและหลักการพื้นฐานที่เน้นมนุษย์เป็นศูนย์กลาง

    • การดูแลความเสี่ยงของ AI ที่ครอบคลุมทั้ง Red Line และความเสี่ยงสูง

    • การมีกลไกในการเยียวยาผู้เสียหาย คุณเติ้ลมองว่าอนุสัญญานี้จะเป็นบรรทัดฐานสำหรับประเทศที่ต้องการแสดงความพร้อมในการดูแลธรรมาภิบาลของ AI

  3. นโยบาย AI ของสหรัฐอเมริกา: สหรัฐอเมริกาได้ออกนโยบายที่มุ่งเน้นการเป็นผู้นำด้าน AI โดยมีประเด็นสำคัญ 3 ด้าน ได้แก่

    • การดูแลการกำกับดูแลภายในมลรัฐ ซึ่งมีความหลากหลายของกฎหมาย AI ในแต่ละมลรัฐ

    • การเตรียมความพร้อมด้านโครงสร้างพื้นฐาน เช่น Data Center และ การสนับสนุนผู้ประกอบการ

    • การหารือระหว่างประเทศเพื่อสร้างกลไกการกำกับดูแลที่ไม่ส่งผลกระทบต่อการนำ AI ไปใช้งาน (adoption)

คุณเก๋ ได้เสริมมุมมองจากเวทีโลก โดยเฉพาะอย่างยิ่งการเข้าสู่ยุค Generative AI อย่างเป็นทางการ ซึ่งหมายความว่า AI จะไม่ใช่แค่เครื่องมืออีกต่อไป แต่จะเป็นส่วนหนึ่งในชีวิตประจำวันของผู้คน ประเด็นสำคัญที่ถูกพูดถึงในเวทีโลกไม่ใช่เรื่องที่ AI จะมาแย่งงานมนุษย์ แต่เป็นการทำอย่างไรให้ทุกคนสามารถเข้าถึง AI ได้อย่างเท่าเทียมกัน

คุณเติ้ล มีการอธิบายเพิ่มเติมว่า AI จะไม่ได้แย่งอาชีพทั้งหมด แต่จะแย่งเพียงบางส่วนของงานหรือบางกระบวนการทำงานเท่านั้น โดยคุณเติ้ลเสริมว่า AI ไม่สามารถรับผิดชอบ (accountability) แทนมนุษย์ได้ ดังนั้นมนุษย์ยังคงเป็นผู้รับผิดชอบสูงสุด และ AI จะเข้ามาเป็นตัวเสริมมากกว่าการเข้ามาแทนที่ ซึ่งเป็นมุมมองที่ช่วยคลายความกังวลเรื่องการตกงานจาก AI และเน้นย้ำถึงความสำคัญของการใช้ AI ให้เป็นประโยชน์ในทุกอาชีพ

เวทีระดับโลกและ AI Governance ในประเทศไทย

คุณเก๋ ได้กล่าวถึงเวทีระดับโลกที่ประเทศไทยมีส่วนร่วม ได้แก่

  • The Third UNESCO Global Forum on the Ethics of AI

    ประเทศไทยได้รับโอกาสในการร่วมเป็นเจ้าภาพงานนี้ ซึ่งเน้นย้ำถึงเรื่องจริยธรรม AI โดยเฉพาะ การรวมกลุ่มของประเทศต่างๆ เพื่อผลักดันข้อเสนอแนะในการทำให้ AI สอดคล้องตามหลักจริยธรรม AI ที่ยูเนสโกได้ออกไว้ ซึ่งครอบคลุม 11 ด้าน โดยเฉพาะการเข้าถึง AI ของทุกภาคส่วน รวมถึงกลุ่มเปราะบางในภาคการศึกษาและวัฒนธรรม ประเทศไทยยังได้ผลักดันให้เป็นศูนย์ Practice Center ของภูมิภาคในการศึกษาและประยุกต์ใช้ AI ให้สอดคล้องกับหลักจริยธรรม AI และแนวทางสากล โดยเฉพาะสำหรับประเทศกำลังพัฒนา

  • AI for Good Summit 2025

    เวทีนี้จัดโดย ITU และคำที่ถูกพูดถึงมากที่สุดคือ 'Agentic AI' ซึ่งหมายถึง AI ที่สามารถทำงานได้เองโดยอัตโนมัติ เรียนรู้และทำงานได้เองโดยไม่ต้องสั่งการ ความน่ากังวลของ Agentic AI คือการเข้าถึงข้อมูลที่ละเอียดอ่อน (sensitive data) เช่น รายชื่อผู้ติดต่อ ตารางเวลางาน ความชอบส่วนตัว หรือแม้กระทั่งข้อมูลบัตรเครดิต ซึ่งนำมาสู่คำถามเรื่องความปลอดภัยของระบบ และการตัดสินใจว่าขั้นตอนใดที่ AI ไม่ควรทำงานโดยอัตโนมัติ

    อีกประเด็นสำคัญของเวทีนี้คือเรื่อง AI Governance ซึ่งมีการจัดให้มี 'AI Governance Day' โดยเฉพาะ เพื่อให้ประเทศต่างๆ ทั้งที่พัฒนาแล้วและกำลังพัฒนา มาร่วมกันแลกเปลี่ยนมุมมองและออกแบบวิธีการกำกับดูแลร่วมกัน โดยเน้นย้ำว่าการกำกับดูแล AI ไม่ใช่หน้าที่ของภาครัฐเท่านั้น แต่ต้องอาศัยความร่วมมือจากทุกฝ่าย ทั้งภาครัฐ ภาคเอกชน ผู้พัฒนา และประชาชนผู้มีส่วนได้ส่วนเสีย เพื่อให้ AI Governance มีความเข้มแข็งและแข็งแรง

AI Governance ในประเทศไทย

สำหรับบริบทของประเทศไทย คุณเก๋ได้อธิบายว่า AI Governance เริ่มต้นจากการที่สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคม (สดช.) ได้ออกแนวปฏิบัติด้านจริยธรรม AI ของประเทศไทย ซึ่งหน่วยงานต่างๆ สามารถนำไปใช้ได้ทันที นอกจากนี้ ยังมีการจัดตั้งศูนย์ AIGC (AI Governance Center) ซึ่งทำหน้าที่ให้คำปรึกษาแก่หน่วยงานที่จะนำ AI ไปใช้ เพื่อให้มั่นใจว่าการใช้งาน AI เป็นไปตามหลักธรรมาภิบาล AI สอดคล้องกับจริยธรรม กฎหมาย และกฎระเบียบที่เกี่ยวข้อง รวมถึงมีการประเมินและควบคุมความเสี่ยงที่อาจส่งผลกระทบต่อตนเอง สังคม และองค์กร

คุณเก๋ ยังได้กล่าวถึงแนวทางการกำกับดูแลสำหรับ Agentic AI ที่ ETDA กำลังดำเนินการอยู่ โดยจะมีการออกไกด์ไลน์เพิ่มเติม เพื่อให้มั่นใจว่า AI ที่ทำงานโดยอัตโนมัติจะมีการควบคุม มีการแสดงความรับผิดชอบว่าใครจะเป็นผู้รับผิดชอบ และมีการกำหนดขอบเขตการเข้าถึงข้อมูล

มุมมองทางกฎหมาย กับ AI

คุณเติ้ลได้เสริมมุมมองทางกฎหมายที่เกี่ยวข้องกับ AI Governance โดยยกตัวอย่างความร่วมมือระหว่างรัฐบาลอังกฤษและ Techsauce ที่มีการจัดประชุมในประเทศไทย และนำเสนอเครื่องมือที่น่าสนใจในการรับมือกับความท้าทายของ AI ในด้านนโยบายสาธารณะ (public policy) โดยเฉพาะประเด็นที่ว่า จะมั่นใจได้อย่างไรว่า AI ที่นำมาช่วยในเรื่อง public policy จะไม่นำไปสู่การออกนโยบายที่มีอคติ (bias) หรือมีประเด็นปัญหาเชิงจริยธรรม ทางอังกฤษได้มีการเสนอใช้ชุดของเครื่องมือ

  • เพื่อใช้ในการวิจัยช่องว่างของกฎหมายซึ่งเป็นข้อมูลกฎหมายทั้งหมดของรัฐบาลอังกฤษ

  • เพื่อใช้ในการทำร่างกฎหมายหรือช่วยขัดเกลาเบื้องต้น ซึ่งออกแบบมาโดยเฉพาะ

  • เพื่อใช้ในการทำรายงานในเบื้องต้นว่ากฎหมายที่ออกมาจะช่วยสนับสนุนหรือแก้ไขเรื่องอะไร

คุณเติ้ลยังได้กล่าวถึงความกังวลเกี่ยวกับการออกกฎหมาย AI ในระดับมลรัฐของสหรัฐอเมริกา ซึ่งมีความหลากหลายและอาจสร้างต้นทุนให้กับผู้ประกอบการ นอกจากนี้ยังเน้นย้ำถึงความสำคัญของการระมัดระวังในการห้ามพัฒนาหรือประยุกต์ใช้ AI โดยสิ้นเชิง

กฎหมายที่เกี่ยวข้องกับ AI (AI Law)

จากการศึกษากฎหมายจากทั่วโลก สามารถแบ่งออกมาได้ 4 ประเด็น ดังนี้

  • Misuse (การใช้ในทางที่ผิด): มนุษย์ใช้ AI ทำร้าย เช่น อาชญากรใช้ AI หลอกลวงหรือโจมตีไซเบอร์ ส่วนใหญ่ยังใช้กฎหมายอาญาเดิมบังคับใช้ได้ เพราะมองว่า AI เป็นเพียง "เครื่องมือ"

  • Misalignment (การไม่สอดคล้องกับเป้าหมาย): ทำให้ต้องมีการธรรมมาภิบาล AI (AI Governance) เป็นประเด็นที่กฎหมาย AI ทั่วโลกให้ความสำคัญมากที่สุด (70-80%)

  • Mayhem (ความปั่นป่วนทางสังคม): เช่น การใช้ Deepfake ปลอมแปลงทำให้คนไม่เชื่อข้อมูลจริง เป็นประเด็นร้อนแรง มีการออกกฎหมายเพื่อกำกับดูแลเป็นการทั่วไป หรือกำกับเฉพาะกรณีที่มีความเสี่ยงสูง เช่น การแพทย์ หรือการเลือกตั้ง

  • AI กับปัญหาทางทรัพย์สินทางปัญญาและลิขสิทธิ์ เป็นเรื่องที่ซับซ้อนและกระทบข้ามพรมแดน หลายประเทศจึงยังเคลื่อนไหวอย่างระมัดระวัง และมักออกเป็นไกด์ไลน์มากกว่าการแก้ไขกฎหมาย

การออกกฎหมายกำกับ AI จากการศึกษาการออกกฎหมายทั่วโลกและสหภาพยุโรปจะไม่ได้ออกกฎหมาย 1 ฉบับ แล้วดูแล AI ทุกอย่างทุกตัว เพราะเราไม่ได้ออกกฎหมายมาเพื่อแทนกฎหมายเดิม แต่เราออกกฏหมายมาเพื่อเพิ่มใน AI ที่มันมีความเสี่ยงสูง ในส่วน AI ที่มีความเสี่ยงต่ำหรือเดิมก็จะปล่อยให้อยู่กับกฎหมายที่มีอยู่เดิมในปัจจุบัน เช่น กฎหมายอาญา แพ่งและพาญิชย์

รูปแบบการออกกฏหมาย

โดย AI ที่มีความเสี่ยงสูงและมีกฏหมายที่ออกมาเพิ่มเติมจะมีอยู่ 4 รูปแบบ

  • Risk-based Approach แบบเต็มขั้น โดยเป็นการออกกฎหมายโดยมองที่ความเสี่ยงและนิติเศรษฐศาสตร์ ที่เป็นต้นทุนในการออกกฎหมาย ซึ่งต้นทุนอาจจะทำให้การผลักดันนวัตกรรมทางด้าน AI มันยากขึ้น ทำให้เราต้องมีการระบุความเสี่ยง โดยสหภาพยุโรปแบ่งออกเป็น 4 ระดับดังนี้

    1. ความเสี่ยงต้องห้าม (Unacceptable Risk) มีโทษทางปกครอง เช่น AI ในกล้อง CCTV ที่สอดส่องในที่ทำงาน สถานศึกษาเด็กเล็ก หรือ Social Credits/Scoring

    2. ความเสี่ยงสูง (High-Risk) เช่น AI ในกล้องตรวจคนเข้าเมือง หรือ อยู่ในโครงสร้างพื้นฐาน ส่งผลกระทบต่อชีวิต โดย AI ที่มีความเสี่ยงสูงจะมีภาระหน้าที่ที่ต้องปฏิบัติตามมากมาย เช่น การเก็บข้อมูลเทคนิกทั้งหมดในการพัฒนาเป็นลายลักษณ์อักษร ทำ Risk Management, Data Governance, Cybersecurity, Logs และอื่นๆ

    3. ความเสี่ยงจำกัด (Limited Risk)

    4. ไม่มีความเสี่ยง/ความเสี่ยงต่ำ

  • Risk-based Approach แบบบางส่วน ไม่ได้ดูแลทุกความเสี่ยง จะดูแลในส่วนความเสี่ยงสูงและ Limited Risk เช่น ของเกาหลีใต้ ที่มีการดูแลพวกความเสี่ยงสูงและความเสี่ยงจำกัด

  • Principal-based Approach จะออกกฎหมายกำหนด หลักการกว้างๆ โดยไม่ระบุรายละเอียดการบังคับใช้ แล้วค่อยออกกฎหมายลำดับรองเพื่อกำกับ AI ในแต่ละเรื่องแต่ละชนิดอีกที

  • Technology-specific Approach การดูแล AI ในรูปแบบเฉพาะเจาะจงตามเทคโนโลยี เช่น ของจีน ที่มีการดูแลตามเทคโนโลยีอย่าง Algorithm ที่อยู่ในแพลตฟอร์มการโฆษณา, Algorithm ที่อยู่ใน Search Engine, Deepfake, Generative AI

  • กฎหมาย AI ที่ดูเฉพาะด้าน เฉพาะเรื่อง เช่น ของ California ที่มีออกกฎหมาย 16 ฉบับ

มุมมองในการทำ AI Governance

ประเทศมุมมอง
ในประเทศที่พัฒนา AIกำกับควบคุมมากไปมันก็ไม่เกิดนวัตกรรม
อังกฤษกำกับดูแลอย่าทำแค่กระดาษ ต้อง Action ด้วย
สิงคโปร์ทำแบบสมัครใจ มี Guidelineให้ประเมินตนเอง
ไทยออกแนวทางการประยุกต์ใช้ ให้มีความรับผิดชอบ สอดคล้องกับจริยธรรมและกฎหมาย ให้ประเมินความเสี่ยง

ทิศทาง AI ในกระแสโลก

ทั่วโลกพยายามพัฒนาอธิปไตยเป็นของตนเอง สร้างเสถียรภาพให้เทคโนโลยีของตนเองลดการพึ่งพาเทคโนโลยีจากต่างประเทศ เช่น ยุโรปเริ่มผลักดันในการสร้าง AI Factory กระจายทั่วยุโรป เช่น โรงงานผลิต Super Computer, พัฒนากำลังคน ในประเทศไทยก็ได้เริ่มมีการผลักดัน เช่น การตั้ง Board AI แห่งชาติ, พัฒนากำลังคน

บทบาทของ AIGC

  • ศูนย์ AIGC (AI Governance Clinic by ETDA): ทำหน้าที่ให้คำปรึกษา, จัดทำไกด์ไลน์และเครื่องมือ เพื่อให้องค์กรนำ AI ไปใช้อย่างถูกต้องตามหลักธรรมาภิบาล สอดคล้องกับกฎหมาย และมีการประเมินความเสี่ยง

  • การยกระดับสู่ AIGPC (AI Governance Policy and Practice Center): มีเป้าหมายเพื่อเป็นศูนย์กลางของภูมิภาคอาเซียนในการศึกษาและอบรมด้านการกำกับดูแล AI

กรณีศึกษา การผลักดัน AI Governance ของต่างประเทศ

ต้นปี 2025 ที่ประเทศเนเธอร์แลนด์ มีโครงการผลักดันเปิด Sandbox ในปี 2026 ซึ่งเป็นแนวคิดเปิดพื้นที่ให้กับองค์กรที่จะพัฒนา AI ให้เข้ามาศึกษาได้ทดสอบ AI ของตนเอง เพื่อประเมินความเสี่ยงก่อน โดยกรณีเสี่ยงน้อยก็ไม่ต้องเข้าโครงการ Sandbox แต่สามารถขอคำปรึกษาได้ แต่ถ้าความเสี่ยงมากก็ควรเข้าโครงการเพื่อติดตามดูแลกระบวนการพัฒนาไม่ให้ขัดต่อจริยธรรมและข้อกฎหมายต่างๆ

สรุปและข้อเสนอแนะ

ผู้เชี่ยวชาญทั้งสามท่านได้ทิ้งท้ายด้วยข้อเสนอแนะที่น่าสนใจดังนี้

  • กฎหมาย AI เป็นเกมระยะยาว: คุณเติ้ลย้ำว่าการออกกฎหมายต้องทำอย่างระมัดระวัง ต้องคำนึงถึงความเป็นไปได้ทางเทคนิคที่ยังพัฒนาต่อเนื่อง และต้องมองเป็นเกมยาว แม้แต่ EU เองก็ยังต้องชะลอการออกกฎหมายบางฉบับ การออกกฎเกณฑ์ที่เร็วหรือเข้มงวดเกินไปอาจกลายเป็นอุปสรรคต่อการพัฒนา

  • ความรู้เท่าทัน (Literacy) คือสิ่งสำคัญ: คุณเนมชี้ว่า การเตรียมความพร้อมที่ดีที่สุดคือการสร้าง Literacy ให้กับทุกคน ตั้งแต่ผู้พัฒนา, ผู้ใช้งาน, ไปจนถึงผู้ที่ได้รับผลกระทบ เพื่อให้เข้าใจการทำงาน ข้อจำกัด และความเสี่ยงของเทคโนโลยี

  • กลไกสนับสนุนพร้อมให้คำปรึกษา: คุณเก๋ฝากถึงองค์กรต่างๆ ว่า หากไม่แน่ใจในการนำ AI ไปใช้ สามารถขอคำปรึกษาและใช้เครื่องมือจาก AIGC by ETDA ได้ ซึ่งมีทั้งไกด์ไลน์, เครื่องมือประเมินความพร้อม และหลักสูตรอบรมต่

การพูดคุยในหัวข้อ "จับสัญญาณโลกสู่ไทย: อนาคต AI Governance" ได้แสดงให้เห็นถึงความสำคัญของการกำกับดูแล AI ในยุคที่เทคโนโลยีนี้เข้ามามีบทบาทสำคัญในทุกมิติของชีวิต ไม่ว่าจะเป็นภัยคุกคามทางไซเบอร์ที่เกิดจากการใช้ AI ในทางที่ผิด การเปลี่ยนแปลงของรูปแบบการทำงานที่ AI เข้ามาเป็นส่วนเสริม และความจำเป็นในการสร้างความร่วมมือระหว่างประเทศเพื่อกำหนดบรรทัดฐานและแนวปฏิบัติที่เป็นสากล

0
Subscribe to my newsletter

Read articles from Kitisak Thossaensin directly inside your inbox. Subscribe to the newsletter, and don't miss out.

Written by

Kitisak Thossaensin
Kitisak Thossaensin