กฎหมายคุม AI เริ่มใช้ปี 2025 นี้แล้ว! EU เริ่มที่แรก ประเทศไทยต้องรู้อะไรบ้าง

กฎหมายคุม AI เริ่มใช้ปี 2025 นี้แล้ว! EU เริ่มที่แรก ประเทศไทยต้องรู้อะไรบ้าง

Business

5 นาที

08 ม.ค. 2025

แชร์

ด้วยความก้าวหน้าของ AI ที่รวดเร็วและมีผลกระทบต่อสังคมในวงกว้าง ทำให้หลายประเทศทั่วโลกเริ่มตระหนักถึงความสำคัญของการกำกับดูแลเทคโนโลยีนี้ และสหภาพยุโรป (EU) ก็เป็นหนึ่งในผู้นำในการผลักดันเรื่องนี้ โดยมีกำหนดที่จะบังคับใช้กฎหมาย AI ในเดือนกุมภาพันธ์ 2025 นับเป็นก้าวสำคัญในการสร้างกรอบกฎหมายสำหรับการพัฒนาและใช้งาน AI อย่างปลอดภัย และมีจริยธรรม

EU AI Act คืออะไร?

EU AI Act เป็นกฎหมายฉบับแรกของโลกที่มุ่งเน้นการควบคุมการใช้งาน AI โดยเฉพาะ กฎหมายฉบับนี้มีเป้าหมายหลักคือคุ้มครองสิทธิขั้นพื้นฐานของประชาชน เช่น สิทธิความเป็นส่วนตัว สิทธิเสรีภาพในการแสดงออก และการป้องกันการเลือกปฏิบัติ ส่งเสริมความโปร่งใส ทำให้การทำงานของระบบ AI สามารถตรวจสอบได้ และผู้ใช้งานสามารถเข้าใจได้ว่าระบบ AI ตัดสินใจอย่างไร รวมถึงควบคุมการใช้งาน AI ในด้านที่อาจก่อให้เกิดความเสี่ยงต่อสังคม เช่น การใช้ AI ในการตัดสินคดี หรือการคัดเลือกบุคลากร

โดย EU AI Act ใช้แนวทางพิจารณาจากระดับความเสี่ยง กล่าวคือระบบ AI ที่มีความเสี่ยงสูงกว่าจะถูกควบคุมอย่างเข้มงวดกว่า โดย “ความเสี่ยง” ในบริบทของ AI Act ได้แก่ความเสี่ยงด้านสุขภาพ ความปลอดภัย และสิทธิขั้นพื้นฐาน โดยเฉพาะอย่างยิ่งเมื่อระบบดังกล่าวทำงานเป็นส่วนประกอบหลักของผลิตภัณฑ์ดิจิทัล

ระบบ AI จะถูกแบ่งออกเป็น 4 กลุ่มและอยู่ภายใต้ข้อกำหนดที่แตกต่างกัน


❌ระบบ AI ที่มีความเสี่ยงที่ยอมรับไม่ได้
จะถูกห้ามใช้โดยเด็ดขาด ตัวอย่างเช่น
  • การระบุตัวตนทางชีวภาพระยะไกลแบบเรียลไทม์ในพื้นที่สาธารณะ (เช่น ระบบสแกนหน้าแล้วขึ้นชื่อทันทีว่าใครเป็นใคร อายุเท่าไหร่ ทำงานอะไร)
  • การให้คะแนนทางสังคม (Social Scoring System)
  • การใช้เทคนิคการโน้มน้าวจิตใต้สำนึกที่ใช้ประโยชน์จากจุดอ่อนของกลุ่มเฉพาะ (เช่น ทำการตลาดด้วย AI กับกลุ่มผู้ป่วยซึมเศร้า)
⚠ ระบบ AI ที่มีความเสี่ยงสูง มีความเสี่ยงสูงต่อสุขภาพ ความปลอดภัย และสิทธิขั้นพื้นฐานของประชาชนจึงต้องทำตามข้อกำหนดที่เข้มงวด ตั้งแต่คุณภาพของชุดข้อมูลที่ใช้ มีการกำกับดูแลข้อมูลที่เหมาะสมกับข้อมูลที่ใช้สำหรับเทรน AI ความโปร่งใส และการให้ข้อมูลแก่ผู้ใช้ รวมถึงต้องผ่านต้องการประเมินก่อนออกสู่ตลาด และลงทะเบียนระบบในฐานข้อมูล AI ของ EU ด้วย ตัวอย่างเช่น
  • การระบุตัวตนทางชีวภาพระยะไกลแบบเรียลไทม์ในพื้นที่สาธารณะ (เช่น ระบบสแกนหน้าแล้วขึ้นชื่อทันทีว่าใครเป็นใคร อายุเท่าไหร่ ทำงานอะไร)
  • การให้คะแนนทางสังคม (Social Scoring System)
  • การใช้เทคนิคการโน้มน้าวจิตใต้สำนึกที่ใช้ประโยชน์จากจุดอ่อนของกลุ่มเฉพาะ (เช่น ทำการตลาดด้วย AI กับกลุ่มผู้ป่วยซึมเศร้า)
❕AI ที่มีความเสี่ยงต่ำหรือจำกัด ต้องทำตามข้อกำหนดบางส่วน ซึ่งเน้นเรื่องความโปร่งใสเป็นหลัก โดยผู้ใช้จะต้องได้รับแจ้งว่าสิ่งที่พวกเขากำลังโต้ตอบด้วยนั้นถูกสร้างขึ้นโดย AI ตัวอย่างเช่น
  • Chatbot
  • Deep Fake
📑 ระบบ AI ที่มีความเสี่ยงต่ำมาก เป็นการใช้บริการจากผู้ให้บริการระบบภายนอก (Third Party) ให้ปฎิบัติตาม Code of Conduct ทั่วไปขององค์กร ตัวอย่างเช่น
  • ระบบจัดการข้อความสแปมหรืออีเมลขยะ
  • โปรแกรมตกแต่งรูปภาพ

ผลกระทบของ EU AI Act 

Forbes ได้เผยแพร่บทความ The 10 Most Powerful Data Trends That Will Transform Business In 2025 ที่ได้พูดถึง 10 เทรนด์ที่จะมีผลต่อธุรกิจในปีหน้า โดยมีการพูดถึงเทรนด์กฎหมาย AI Act ว่าจะเป็นจุดเปลี่ยนสำคัญในการกำกับดูแลข้อมูล บริษัทต่างๆ ที่ทำงานเกี่ยวกับข้อมูล ทั้งในยุโรปและทั่วโลก จะต้องปรับตัวให้เข้ากับกฎใหม่นี้ ซึ่งก็เป็นทั้งโอกาสในการพัฒนาเทคโนโลยีใหม่ ๆ ให้สอดคล้องกับกฎหมาย และอุปสรรคที่บริษัทอาจต้องลงทุนปรับเปลี่ยนระบบงาน หรืออาจทำให้การทำงานช้าลง

การบังคับใช้ EU AI Act จะส่งผลกระทบต่อหลายภาคส่วน ทั้งภาคธุรกิจ ภาครัฐ และประชาชนทั่วไป โดยเฉพาะอย่างยิ่งบริษัทเทคโนโลยีขนาดใหญ่ที่พัฒนา และใช้งาน AI จะต้องปรับตัวให้สอดคล้องกับกฎหมายฉบับนี้ ซึ่งอาจส่งผลต่อต้นทุนในการพัฒนาและการแข่งขันในตลาด

ผลกระทบเชิงบวก
  • สร้างความเชื่อมั่น: กฎหมายฉบับนี้จะช่วยสร้างความเชื่อมั่นให้กับผู้บริโภคและผู้ใช้งานว่าระบบ AI ที่ได้รับการรับรองตามมาตรฐานของสหภาพยุโรปนั้นมีความปลอดภัย น่าเชื่อถือ และเป็นธรรม
  • ส่งเสริมการแข่งขันที่เป็นธรรม: โดยการกำหนดกฎเกณฑ์ที่ชัดเจนและเท่าเทียมกันสำหรับทุกบริษัท ทำให้เกิดการแข่งขันที่เป็นธรรมและโปร่งใสมากขึ้น
  • กระตุ้นนวัตกรรม: แม้ว่าจะมีข้อกำหนดที่เข้มงวด แต่กฎหมายฉบับนี้ยังส่งเสริมให้นักพัฒนา AI มุ่งเน้นไปที่การพัฒนาระบบ AI ที่มีคุณภาพสูง มีความปลอดภัย และเป็นประโยชน์ต่อสังคม
  • สร้างมาตรฐานสากล: กฎหมาย AI Act ของสหภาพยุโรปอาจกลายเป็นมาตรฐานสากลสำหรับการกำกับดูแล AI ซึ่งจะส่งผลให้บริษัทที่ปฏิบัติตามกฎหมายฉบับนี้ได้รับประโยชน์ในการเข้าสู่ตลาดโลก
ผลกระทบเชิงลบ
  • เพิ่มต้นทุน: การปฏิบัติตามข้อกำหนดของกฎหมาย AI Act อาจทำให้บริษัทต้องลงทุนเพิ่มเติมในด้านต่างๆ เช่น การพัฒนาระบบการจัดการความเสี่ยง การทดสอบระบบ และการจัดทำเอกสาร
  • ความซับซ้อนของกฎระเบียบ: กฎหมาย AI Act มีรายละเอียดที่ซับซ้อนและอาจมีความไม่แน่นอนในบางประเด็น ทำให้บริษัทต้องใช้เวลาและทรัพยากรในการตีความและปฏิบัติตามกฎหมาย
  • ความล่าช้าในการนำผลิตภัณฑ์ออกสู่ตลาด: กระบวนการประเมินความสอดคล้องและการขออนุญาตอาจทำให้การนำผลิตภัณฑ์ AI ออกสู่ตลาดล่าช้าลง
  • ผลกระทบต่อนวัตกรรม: ข้อกำหนดที่เข้มงวดอาจจำกัดขอบเขตของนวัตกรรมในบางพื้นที่ โดยเฉพาะอย่างยิ่งในด้านที่เกี่ยวข้องกับความเสี่ยงสูง
บริษัทที่ได้รับผลกระทบมากที่สุด
  • บริษัทเทคโนโลยีขนาดใหญ่ บริษัทเทคโนโลยีขนาดใหญ่ที่พัฒนาและใช้งาน AI ในวงกว้าง เช่น บริษัทที่ให้บริการ Cloud Computing บริษัท Social Media Platform และบริษัทที่พัฒนาหุ่นยนต์ จะได้รับผลกระทบจากกฎหมายฉบับนี้มากที่สุด
  • สตาร์ทอัพ AI สตาร์ทอัพที่กำลังพัฒนานวัตกรรม AI อาจประสบปัญหาในการเข้าถึงตลาดเนื่องจากขาดทรัพยากรในการปฏิบัติตามข้อกำหนดของกฎหมาย
  • บริษัท SMEs บริษัทขนาดกลางและขนาดย่อมที่ใช้ AI ในกระบวนการผลิตหรือบริการ อาจต้องเผชิญกับความท้าทายในการปรับตัวให้สอดคล้องกับกฎหมายฉบับนี้ และต้นทุนที่เพิ่มขึ้นจากการต้องเลือกใช้ระบบที่ผ่านการประเมิน

ประเทศไทยยังไม่มีกฎหมายควบคุม AI โดยเฉพาะ แต่…

แม้ว่าปัจจุบันประเทศไทยยังไม่มีกฎหมายที่กำหนดขึ้นมาเพื่อควบคุมปัญญาประดิษฐ์ (AI) โดยเฉพาะ แต่ก็ไม่ได้หมายความว่าการใช้งาน AI ในประเทศไทยจะไม่มีข้อกำหนดใดๆ เลย เพราะก็มีกฎหมาย PDPA (Personal Data Protection Act) ที่เกี่ยวข้องกับการนำข้อมูลผู้ใช้งาน หรือลูกค้ามาใช้ รวมถึงกฎหมายลิขสิทธิ์ กฎหมายคอมพิวเตอร์ ที่สามารถใช้ควบคุมการใช้งาน AI ได้ในระดับหนึ่ง

นอกจากนี้ยังมีการเผยแพร่แนวทางปฏิบัติที่เกี่ยวข้องกับ AI จากหน่วยงานภาครัฐ อาทิ “แนวปฏิบัติเบื้องต้นในการใช้ ChatGPT สำหรับองค์กร” ที่เผยแพร่โดยศูนย์ AI Governance ของสำนักงานพัฒนาธุรกรรมอิเล็กทรอนิกส์ (ETDA) ให้องค์กรและบริษัทใช้ศึกษาแนวปฏิบัติ และเร่งออกนโยบายที่เกี่ยวข้อง

เชื่อว่าหลังจากนี้หน่วยงานภาครัฐก็กำลังเร่งศึกษา และพัฒนากฎหมายเกี่ยวกับ AI โดยเฉพาะ เพื่อให้สอดคล้องกับสถานการณ์ปัจจุบันและแนวโน้มในอนาคตอย่างแน่นอน

รู้ AI รู้หลัก Data Governance ทักษะใหม่ที่ Data Analyst ยุคนี้ต้องมี 

ปัจจุบันการนำ AI มาประยุกต์ใช้ในการวิเคราะห์ข้อมูลจึงเป็นสิ่งที่หลีกเลี่ยงไม่ได้ แต่การใช้งาน AI อย่างมีประสิทธิภาพและปลอดภัยนั้นจำเป็นต้องอาศัยทักษะที่หลากหลาย โดยเฉพาะอย่างยิ่งทักษะด้านการกำกับดูแลข้อมูล Data Governance ที่จะช่วยให้ Data Analyst สามารถทำงานได้อย่างถูกต้องและเป็นไปตามกฎระเบียบ สร้างความเชื่อมั่นให้กับองค์กร และลูกค้าอีกด้วย

Data Ready Bootcamp คอร์สเรียนด้าน Data Analytics สุดเข้มข้นจากทรู ดิจิทัล อคาเดมี นอกจากจะสอนทฤษฎีการวิเคราะห์ข้อมูล และเครื่องมือต่างๆ ที่จำเป็นแล้ว ยังสอน AI Use Cases และหลักการกำกับดูแลข้อมูล (Data Governance) ที่ถูกต้องอีกด้วย ดูรายละเอียดเพิ่มเติม และสมัครเรียนได้ที่นี่ www.truedigitalacademy.com/course/data-ready-bootcamp

Source:
forbes
pdpacore
ey.com
deloitte

แชร์