ตั้งแต่ปลายปี 2565 หลังจากที่ Chat GPT ได้เปิดให้บริการแก่บุคคลทั่วไป
AI (Artificial intelligence) หรือ Generative AI จึงกลายเป็นคำที่ทุกท่านได้ยินผ่านหูและเห็นผ่านตากันบ่อยมาขึ้น
สหภาพยุโรปเห็นความสำคัญของ AI และเล็งเห็นผลกระทบของการใช้ AI จึงประกาศร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI มาตั้งแต่ปี 2564 ซึ่งร่างกฎหมายนั้น ก็พึ่งได้รับความเห็นชอบจากตัวแทนเจรจาของสภายุโรปและประธานของคณะมนตรียุโรปโดยเมื่อวันที่ 9 ธันวาคม 2566
ร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI นี้อยู่กำลังในขั้นตอนการแก้ไขปรับปรุงในรายละเอียดและถูกคาดหมายว่าจะเป็นกฎหมายเพื่อควบคุมกำกับการใช้ AI ที่มีความครอบคลุมฉบับแรกของโลก
หลักการสำคัญของร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI ดังกล่าวคือ การกำหนดให้มีการแยกประเภทการใช้งาน AI ตามระดับความเสี่ยงที่แตกต่างกันไป และกำหนดระดับความเข้มข้นของการกำกับแตกต่างกันไปตามระดับความเสี่ยง
1. การใช้ AI ที่มีความเสี่ยงสูงระดับที่ยอมรับไม่ได้ (Unacceptable Risk)
การใช้ AI ที่มีความเสี่ยงสูงระดับที่ยอมรับไม่ได้ หมายถึง การใช้ AI ที่อาจก่อให้เกิดความเสียหายทางร่างกายหรือจิตใจแก่บุคคลใด ๆ โดยใช้ AI ปรับพฤติกรรมผ่านจิตใต้สำนึก หรือ การใช้ AI ที่การใช้ประโยชน์จากความเปราะบางของกลุ่มคนบางกลุ่มจากปัจจัยด้านอายุ สภาพร่างกาย หรือ สุขภาพจิตของบุคคลเหล่านั้น
ทั้งนี้ อย่างไรก็ดี การใช้ AI ในรูปแบบที่ได้รับอนุญาตภายใต้ข้อยกเว้นข้างต้น จะต้องได้รับการรับรองจากหน่วยงานฝ่ายตุลาการ หรือหน่วยงานภาครัฐอิสระในประเทศสมาชิกที่เกี่ยวข้องก่อนการใช้งาน เพื่อป้องกันการละเมิดสิทธิของประชาชน
2. AI ประเภทที่มีความเสี่ยงสูง (High Risk)
AI ประเภทที่มีความเสี่ยงสูง เช่น การใช้ AI ในอุปกรณ์การแพทย์ การใช้ AI ในของเล่น การใช้ AI กับระบบสาธารณูปโภคที่สำคัญ การใช้ AI เพื่อพิจารณาความน่าเชื่อถือ (credit rating) ของบุคคล การใช้ AI ในการเลือกรับพนักงานเข้าทำงานหรือการตัดสินใจเลื่อนตำแหน่ง หรือการใช้ AI ในการคัดเลือกคนเข้าศึกษาต่อในโรงเรียนหรือมหาวิทยาลัย หรือการตัดเกรดในการสอบ
เช่น หน้าที่ในการประเมินผลกระทบต่อสิทธิพื้นฐานของประชาชน หน้าที่ในการจัดให้มีระบบควบคุมคุณภาพและระบบจัดการความเสี่ยงตามที่กฎหมายกำหนด เป็นต้น
3. AI ที่มีความเสี่ยงจำกัด (Limited Risk)
AI ที่มีความเสี่ยงจำกัด จะครอบคลุม AI เพื่อการใช้ทั่วไป เช่น Generative AI Chatbot และ AI ที่สร้าง Deepfake
สำหรับ AI ที่มีความเสี่ยงจำกัด จะมีการกำหนดหน้าที่การเปิดเผยข้อมูลเพื่อความโปร่งใส
เช่น การแจ้งผู้ใช้งานว่าผู้ใช้งานกำลังติดต่อกับ AI การแจ้งให้ทราบว่าผลงานนั้นสร้างหรือดัดแปลงโดย AI การเปิดเผยข้อมูลเกี่ยวกับผลงานที่มีลิขสิทธิ์ที่นำมาใช้ในการพัฒนาระบบ การให้เปิดเผยข้อมูลเกี่ยวกับการป้องกันไม่ให้ AI ผลิตเนื้อหาที่เป็นการหมิ่นประมาท
4. AI ความเสี่ยงต่ำ (Minimal Risk)
ตัวอย่าง AI ที่มีความเสี่ยงต่ำ หรือ ไม่มีความเสี่ยง เช่น AI ที่ใช้ในเกมส์ หรือ AI ที่ใช้ในการกรอง spam ซึ่งทางสหภาพยุโรปได้แสดงความเห็นใน press release ว่า AI ส่วนมากจะเป็น AI ในประเภทนี้
AI ที่มีความเสี่ยงต่ำจะไม่มีหน้าที่ภายใต้ร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI แต่ผู้ประกอบการสามารถประกาศ Code of Conduct สำหรับการใช้ AI ประเภทนี้ได้โดยสมัครใจ
หลักการดังกล่าวได้กำหนดระดับความเข้มข้นของการกำกับแตกต่างกันไปตามระดับความเสี่ยง และกำหนดให้มีการแยกประเภทการใช้งาน AI ตามระดับความเสี่ยงที่แตกต่างกันไป น่าเป็นแบบอย่างที่หลายประเทศที่กำลังพิจารณาออกกฎหมายเพื่อกำกับ AI นำไปใช้อ้างอิงในการออกแบบกฎหมายกำกับ AI ของประเทศตนเอง
อย่างไรก็ตาม AI ก็ยังคงมีการใช้อย่างกว้างขวางขึ้นในอนคต หากไม่มีกฎหมายเพื่อเข้ามาควบคุมดูแลความฉลาดเหนือมนุษย์ของ AI จะทำให้โลกรับมือกับเทคโนโลยีนี้ได้ยากขึ้น เนื่องจาก AI พร้อมที่จะแทนที่และเป็นไปได้ทุกอย่าง หากมีกฎหมายดังกล่าวเข้ามาช่วยควบคุณกำกับดูแลทุกอย่างคงเป็นไปด้วยดี
ข้อมูลจาก กรุงเทพธุรกิจ
No Comments