เมื่อวันที่ 13 มีนาคม รัฐสภายุโรปได้อนุมัติกฎหมายปัญญาประดิษฐ์ ซึ่งรับประกันความปลอดภัยและการปฏิบัติตามสิทธิขั้นพื้นฐาน ขณะเดียวกันก็ช่วยส่งเสริมนวัตกรรมไปพร้อมๆ กัน
กฎระเบียบดังกล่าวเป็นข้อตกลงกันในการเจรจากับรัฐสมาชิกของสหภาพยุโรปเมื่อเดือนธันวาคม 2023 ได้รับการรับรองจากสมาชิกสภาผู้แทนราษฎรยุโรป (MEP) ด้วยคะแนนเสียงเห็นชอบ 523 เสียง เห็นด้วย 46 เสียง และงดออกเสียง 49 เสียง
โดยมีจุดมุ่งหมายเพื่อปกป้องสิทธิขั้นพื้นฐาน ประชาธิปไตย หลักนิติธรรม และความยั่งยืนด้านสิ่งแวดล้อมจาก AI ที่มีความเสี่ยงสูง ขณะเดียวกันก็ส่งเสริมนวัตกรรมและสร้างยุโรปให้เป็นผู้นำในสาขานี้ กฎระเบียบดังกล่าวกำหนดพันธกรณีสำหรับ AI โดยพิจารณาจากความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์และระดับผลกระทบจากมัน
กฎหมายนี้มีความครอบคลุมและเข้มงวดมาก บรันโด เบนิเฟอี ผู้ร่วมรายงานของคณะกรรมการตลาดภายใน (สมาชิกสภาจากอิตาลี) กล่าวว่า "ในที่สุดเราก็มีกฎหมายที่มีผลผูกพันด้านปัญญาประดิษฐ์ฉบับแรกของโลก เพื่อลดความเสี่ยง สร้างโอกาส ต่อสู้กับการเลือกปฏิบัติ และสร้างความโปร่งใส ขอขอบคุณรัฐสภา แนวทางปฏิบัติด้าน AI ที่ไม่เป็นที่ยอมรับจะถูกห้ามในยุโรป และสิทธิของพนักงานคนทำงานและพลเมืองจะได้รับการคุ้มครอง ขณะนี้สำนักงาน AI จะถูกจัดตั้งขึ้นเพื่อสนับสนุนบริษัทต่างๆ ให้เริ่มปฏิบัติตามกฎก่อนที่จะมีผลบังคับใช้ เรารับรองว่ามนุษย์และคุณค่าของยุโรปเป็นศูนย์กลางของการพัฒนา AI”
แอปพลิเคชันเตรียมจะถูกแบนได้
กฎใหม่ห้ามการใช้งาน AI บางอย่างที่คุกคามสิทธิของพลเมือง รวมถึงระบบการจัดหมวดหมู่ไบโอเมตริกซ์ตามลักษณะที่ละเอียดอ่อน และการคัดลอกภาพใบหน้าที่ไม่กำหนดเป้าหมายจากอินเทอร์เน็ตหรือภาพจากกล้องวงจรปิดเพื่อสร้างฐานข้อมูลการจดจำใบหน้า ห้ามการบันทึกการจดจำอารมณ์จากใบหน้าของบุคคลในที่ทำงานและโรงเรียน ห้ามการบันทึกคะแนนพฤติกรรมทางสังคมที่เกิดขึ้นจากการสอดแนมด้วย AI ห้ามการตรวจตราพฤติกรรมโดยคาดการพฤติกรรมล่วงหน้าด้วย AI และห้ามใช้ AI ที่ลงการพฤติกรรมของมนุษย์หรือหาประโยชน์จากจุดอ่อนของผู้คน ทั้งหมดนี้จะถูกห้ามกระทำในสหภาพยุโรป
แต่มีการยกเว้นการบังคับใช้กฎหมาย
การใช้ระบบระบุตัวตนด้วยไบโอเมตริกซ์ (RBI) โดยหน่วยงานบังคับใช้กฎหมายเป็นสิ่งต้องห้ามในหลักการของกฎหมายนี้ ยกเว้นในสถานการณ์ที่มีการระบุไว้อย่างละเอียดถี่ถ้วนและจำกัดขอบเขตไว้ ส่วนการใช้งาน RBI “แบบเรียลไทม์” สามารถใช้งานได้ก็ต่อเมื่อเป็นไปตามมาตรการป้องกันที่เข้มงวด เช่น การใช้งานมีการระบุข้อจำกัดทั้งในด้านเวลาและขอบเขตทางภูมิศาสตร์ และขึ้นอยู่กับการอนุญาตจากศาลหรือฝ่ายปกครองโดยเฉพาะ การใช้งานดังกล่าวอาจรวมถึงบางกรณีอื่นๆ ตัวอย่างเช่น การค้นหาเป้าหมายของผู้สูญหาย หรือการป้องกันการโจมตีของผู้ก่อการร้าย กรณีเหล่านี้ถือเป็นกรณีการใช้งานที่มีความเสี่ยงสูง โดยต้องได้รับอนุมัติจากศาลเพื่อเชื่อมโยงกับความผิดทางอาญา
วางแนวทางควบคุมความเสี่ยงสูง
กฎหมายนี้กำหนดแนวทางจัดการระบบ AI ที่มีความเสี่ยงสูงอื่นๆ (เพราะอาจเป็นอันตรายต่อสุขภาพ ความปลอดภัย สิทธิขั้นพื้นฐาน สิ่งแวดล้อม ประชาธิปไตย และหลักนิติธรรม) ตัวอย่างการใช้งาน AI ที่มีความเสี่ยงสูง ได้แก่ การนำไปใช้กับโครงสร้างพื้นฐานที่สำคัญ ใช้กับการศึกษาและการฝึกอบรมสายอาชีพ การจ้างงาน บริการภาครัฐและเอกชนที่จำเป็น (เช่น การดูแลสุขภาพ การธนาคาร) ระบบบางอย่างในการบังคับใช้กฎหมาย การจัดการการย้ายถิ่นฐานและชายแดน ความยุติธรรมและกระบวนการประชาธิปไตย (เช่น การที่ AI หรืออัลกอริทึมมีอิทธิพลต่อการเลือกตั้ง) ระบบดังกล่าวจะต้องประเมินและลดความเสี่ยงจากการใช้ AI มีการเก็บบันทึกการใช้งาน มีความโปร่งใสและถูกต้อง และรับประกันการควบคุมดูแลโดยมนุษย์ ประชาชนมีสิทธิยื่นเรื่องร้องเรียนเกี่ยวกับระบบ AI และรับคำอธิบายเกี่ยวกับการตัดสินใจตามระบบ AI ที่มีความเสี่ยงสูงซึ่งส่งผลต่อสิทธิของตน
มีข้อกำหนดด้านความโปร่งใส
ระบบ AI สำหรับการใช้งานทั่วไป (GPAI) และโมเดล GPAI ที่ใช้นั้นต้องเป็นไปตามข้อกำหนดด้านความโปร่งใสบางประการ รวมถึงการปฏิบัติตามกฎหมายลิขสิทธิ์ของสหภาพยุโรป และการเผยแพร่สรุปโดยละเอียดของเนื้อหาที่ใช้ในการฝึก AI แต่เท่านั้นยังไม่พอ สหภาพยุโรปยังมองระยะไกลไปถึงการที่โมเดล GPAI ที่มีศักยภาพสูงอาจก่อให้เกิดความเสี่ยงเชิงระบบ จะต้องมีการออกข้อกำหนดเพิ่มเติม รวมถึงการดำเนินการประเมินแบบจำลองการใช้งาน การประเมินและลดความเสี่ยงเชิงระบบ และการรายงานเหตุการณ์
นอกจากนี้ รูปภาพ เสียง หรือเนื้อหาวิดีโอที่สร้างขึ้นหรือดัดแปลงจากการใช้ AI เช่น deepfakes จะต้องมีการระบุข้อมูลกำกับอย่างชัดเจนว่าเป็นการสร้างขึ้นจาก AI
Photo by PAU BARRENA / AFP